Google внедряет искусственный интеллект в «Поиск», «Карты» и «Переводчик»

Google внедряет искусственный интеллект в «Поиск», «Карты» и «Переводчик»

В поиск Google интегрируют искусственный интеллект, который будет давать разносторонние ответы на различные вопросы.

После впечатляющей презентации Microsoft с подробностями об использовании искусственного интеллекта как "второго пилота" в чатах поиска Bing, компания Google больше сосредоточилась на усовершенствовании уже существующих функций, таких как Lens и Translate. Намеки на то, что сегодня появятся первые подробности работы чат-бота на основе ИИ под названием Bard особо не оправдались.

Разбираемся, что именно показали в новой презентации:

  • обновление коснулось "мультипоиска" — инструмента, позволяющего начать поиск с помощью изображения и нескольких слов текста.

Например, пользователь может найти в Google Search фотографию понравившейся ему рубашки, а затем спросить у Lens, где можно найти такой же принт, но на другом типе одежды, например, на юбке или носках.

Или можно направить камеру смартфона на сломанную деталь на велосипеде и ввести в Google Search запрос "как починить". Такое сочетание слов и изображения может помочь Google обработать и понять запрос лучше.

  • Bard будет также интегрирован в поиск: нейросеть будет собирать информацию по запросу пользователя и давать развернутый ответ. Или, например, будет применяться NORA (no one right answer): если задать поиску вопрос, на который нет однозначного ответа, он предложит несколько точек зрения и также предложит ссылки, по которым можно будет узнать больше подробностей. Кроме того, у пользователей будет возможность задать уточняющие вопросы, список которых будет предложен под ответами.
  • функция Immersive View в Google Maps — сочетает в себе трехмерный вид определенного района с конкретной информацией, например, о дорожном движении и погоде. Ее внедрят в пяти городах: Лондоне, Лос-Анджелесе, Нью-Йорке, Сан-Франциско и Токио.
  • ряд новых функций для владельцев электромобилей — фильтр по углубленному поиску зарядных станций с множеством доп. уточнений.
  • AR в Google Lens — объединяет переведенный текст с изображением, с которого он был сделан. Будет доступно во всех странах.

Далее представили функции, для которых еще не назначили конкретную дату выхода:

  • пользователи Android при просмотре видео смогут вызвать помощника и найти здание или человека в кадре, не закрывая приложение;
  • если вы используете Google Maps на смартфоне, то Google сможет показывать время прибытия и место следующего поворота прямо на экране блокировки во время движения;
  • функция "Мультипоиск рядом" — позволит искать определенное блюдо или место поблизости к вам. Сейчас доступно только для США.
  • функция Indoor Live View, которая накладывает AR-направления, помогающие ориентироваться в труднодоступных зданиях и местах, будет расширена более чем на 1000 новых аэропортов, вокзалов и торговых центров.
  • поиск с Live View — позволит узнать больше информации о конкретных местах, просматривая их через камеру телефона. Добавят в Барселоне, Дублине и Мадриде.
  • Google Translate сможет указывать и понимать дополнительный контекст для определенных слов и фраз. Первое время будет доступно только для английского, французского, немецкого, японского и испанского языков.
  • представлен собственный генератор изображений, но без названия и дополнительных деталей.