Google обучает новую камеру Clips совместно с профессиональными фотографами
27.01.2018
Впервые Google рассказала о своей обучающейся компактной камере “Clips” в октябре прошлого года во время презентации смартфона Google Pixel 2. Теперь, когда камера должна появиться в продаже в ближайшее время, компания опубликовала запись в своем блоге, объясняющую как обучалась нейросеть камеры для того, чтобы определять и сохранять лучшие снимки, отсеивая все остальное.
Оказывается, Google полагался на опыт кинорежиссера-документалиста, фотожурналиста и художественного фотографа для обучения искусственного интеллекта (ИИ), используя различные высококачественной фотографии для машинного обучения. Группа собрала и проанализировала видеоматериал членов команды разработчиков, чтобы попытаться ответить на вопрос: «Что делает момент (на фотографии - прим. onfoto.ru) незабываемым?»
Обучающий процесс включал базовые элементы фотографии, такие как понимание фокуса и глубины резкости, правило третей, а также некоторых вещи, интуитивно понятные людям, но менее понятные машинному алгоритму: например, не закрывать объектив пальцем и избегать резких движений во время съемки.
В Google отмечают, что до совершенства все еще далеко. Сообщается, что ИИ обучен обращать внимание на “стабильность, резкость и попадание в кадр”, однако без дополнительной тренировки, лицо на краю кадра будет расцениваться алгоритмом так же, как и лицо по центру кадра, даже если интересная часть снимка находится на другом краю изображения.
“Успех с Clips - это не только сохранение, удаление и редактирование материала (хотя это важно). Речь также идет об авторстве, совместном обучении и адаптации с течением времени”, - говорит Джош Лавджой, старший UX-дизайнер Google.
Более подробная информация о процессе разработки и обучения доступна в блоге Google.