По материалам The Verge

На недавно прошедшем мероприятии Search On компания Google представила новое видение своей поисковой системы, показав несколько новых функций. В совокупности их задача сводится к тому, что людям будет доступно больше возможностей, чем простой ввод нескольких слов в строку поиска. Компания постепенно внедряет свою новую технологию машинного обучения Multitask Unified Model (MUM) и надеется дать начало новому продуктивному циклу взаимодействия с пользователями: поисковик будет давать более подробные и контекстные ответы, а взамен от пользователей будут ожидать более подробных и контекстных вопросов. Конечным результатом, как надеются в компании, станет более подробный и глубокий поиск.

Старший вице-президент Google Прабхакар Рагхаван курирует поисковую систему, также как и работу над «Ассистентом», рекламой и другими продуктами. Он любит говорить, что «поиск — это еще не решенная проблема». Возможно, так и есть, но проблемы, которые он и его команда пытаются решить сейчас, связаны не столько со спорами в Интернете, сколько с добавлением контекста к тому, что можно там найти.

Со своей стороны Google собирается развивать возможность распознавания комбинации связанных между собой тем с помощью машинного обучения и представлять их пользователю в организованном виде. После грядущего редизайна поиска Google начнет отображать окна «Things to know» («Что нужно знать»), которые будут отсылать вас к различным подтемам. Например, если в видео есть часть, относящаяся к теме, даже если само видео в целом с ней не связано, — поиск отправит вас туда. Результаты поиска при онлайн-шопинге начнут отображать ассортимент, доступный в ближайших магазинах, и даже одежду в разных стилях, которая ассоциируется с вашим поиском.

Для пользователя же Google предлагает новые способы поиска, выходящие за рамки обычной поисковой строки для ввода текста. Компания активно продвигает свое программное обеспечение для распознавания изображений Google Lens все в большем количестве мест. Оно будет встроено в приложение Google на iOS, а также в веб-браузер Chrome на ПК. А при помощи MUM Google надеется побудить пользователей не просто определять цветы или достопримечательности, а использовать Lens напрямую, чтобы задавать вопросы и делать покупки.

«Этот цикл, я думаю, будет продолжать развиваться, — говорит Рагхаван. – Чем больше технологий, тем больше возможностей доступно пользователю, за счет чего он может больше выразить, а это требует от нас больших усилий с технической точки зрения».

Google Lens позволит пользователям искать по изображениям и уточнять запрос с помощью текста. 

Две эти части уравнения поиска призваны ознаменовать новый этап в развитии поиска Google, на котором его алгоритмы машинного обучения становятся более значимыми, организуя и представляя информацию напрямую. В этом Google очень помогут последние достижения в области машинного обучения. Благодаря системам, известным как большие языковые модели (MUM — одна из них), машинное обучение стало намного лучше отображать связи между словами и темами. Именно эти достижения компания использует, чтобы сделать поиск не только более точным, но и более исследовательским, и, как она надеется, более полезным.

Один из примеров Google очень нагляден. Возможно, вы не имеете ни малейшего представления о том, как называются части вашего велосипеда, но если что-то сломалось, вам придется это выяснить. Google Lens может визуально идентифицировать переключатель передач, и вместо того, чтобы засыпать вас разрозненными сведениями, он позволит вам напрямую задавать вопросы о ремонте и получать необходимую информацию (например, видео с YouTube про ремонт велосипедов).

Стремление к тому, чтобы пользователи чаще открывали Google Lens, само по себе имеет смысл, но если смотреть шире, то Google пытается предоставить больше контекста по запросам пользователей. Более сложный мультимодальный поиск, сочетающий текст и изображения, требует «совершенно другого уровня контекстуализации, который должны предоставлять мы как поставщики услуги, и поэтому нам очень важно получить как можно больше контекста», — говорит Рагхаван.

Многое уже изменилось в сравнении с пресловутыми «десятью синими ссылками» в результатах поиска Google. Он уже давно показывает информационные окна, результаты поиска изображений и прямые ответы. И нынешний анонс — это еще один шаг в направлении того, что результат поиска от Google — это не просто ранжирование релевантной информации, а квинтэссенция всего, что его алгоритмы нашли в сети.

В некоторых случаях — например, это шопинг — такая выборка означает, что вы, возможно, принесете Google больше просмотров. Как и в случае с Lens, за этой тенденцией важно следить: поиск в Google все чаще подталкивает вас к использованию собственных продуктов Google. Но здесь есть и большая опасность. Тот факт, что Google все больше ответов дает вам напрямую, увеличивает ответственность, которая и так всегда на нем лежала: требуется максимально снижать предвзятость.

Под этим можно подразумевать предвзятость в двух разных смыслах. Первый смысл — чисто технический: модели машинного обучения, которые Google собирается использовать для улучшения поиска, имеют широко известные проблемы с расовыми и гендерными предубеждениями. Их обучают на больших объемах информации из Интернета, и в результате они склонны усваивать и худшее из поведения людей в сети. Проблемы Google, возникшие с командой по этике ИИ, хорошо известны — компания уволила двух ведущих исследователей после того, как они опубликовали статью на эту тему. Как сказал вице-президент Google по поиску Панду Наяк, Google знает, что все языковые модели грешат предвзятостью, но компания считает, что может избежать «предоставления их людям для непосредственного потребления».

Новая функция под названием “Things to know” позволит пользователям изучать темы, связанные с их поисковыми запросами.

Как бы то ни было, есть еще один вопрос и другой тип предвзятости. Поскольку Google начинает напрямую сообщать вам результаты своего собственного синтеза информации, важно, какой точки зрения он придерживается. Как журналисты мы часто говорим о том, что так называемый «взгляд из ниоткуда» является неадекватным способом представления наших репортажей. Но какова точка зрения Google? Это проблема, с которой компания сталкивалась в прошлом, иногда называемая проблемой «одного верного ответа». Когда Google пытается дать людям краткие и точные ответы с помощью автоматизированных систем, это часто выливается в распространение недостоверной информации.

На этот вопрос Рагхаван отвечает, указывая на сложность современных языковых моделей: «Почти все языковые модели являются вложениями в пространстве высокой размерности. Есть определенные части этих пространств, которые имеют тенденцию быть более авторитетными, и некоторые части, которые являются менее авторитетными. Мы можем довольно легко механически оценить эти вещи», — объясняет он. Рагхаван говорит, что проблема заключается в том, как представить пользователю часть этой сложной системы, не перегружая его.

Но кажется, что реальный ответ заключается в том, что, по крайней мере, на данный момент, Google делает все возможное, чтобы не вызывать вопросов о точке зрения своей поисковой системы, избегая областей, где ее можно было бы обвинить, как выразился Рагхаван, в «чрезмерной заредактированности». Часто при обсуждении с руководителями Google этих проблем предвзятости и доверия речь идет о более простых для определения частях этих многомерных пространств, таких как «авторитетность».

Например, новые поля Google “Things to know” не будут отображаться, когда кто-то ищет вещи, которые Google определил как «особо опасные/чувствительные», хотя спикер на мероприятии говорил, что Google не «разрешает или запрещает определенные категории, находящиеся под наблюдением, а наши системы способны понимать и масштабировать темы, для которых эти типы функций должны или не должны срабатывать».

Поиск Google, его входные и выходные данные, алгоритмы и языковые модели стали невообразимо сложными. Когда Google говорит нам, что теперь он может понимать содержание видео, мы считаем само собой разумеющимся то, что у него есть вычислительные мощности, чтобы с этим справиться. Но в реальности даже простое индексирование такого объема данных — это монументальный труд, по сравнению с которым первоначальная задача индексирования сети на ранней стадии ее развития кажется ничтожной. (Для справки, Google индексирует только расшифровки аудио части видео с YouTube, хотя с использованием MUM в будущем планируется выполнять индексирование по изображениям и задействовать также другие видеоплатформы).

Часто, когда вы разговариваете с учеными-компьютерщиками, возникает задача коммивояжера. Это известная головоломка, в которой вы пытаетесь рассчитать кратчайший возможный маршрут между заданным количеством городов, но также это и богатая метафора для размышлений о том, как компьютеры выполняют свои задачи.

«Если бы вы дали мне все машины в мире, я мог бы решать весьма серьезные задачи», — говорит Рагхаван. Но в связи с поиском он добавляет, что проблема не решена и, возможно, не может быть решена простым добавлением большего числа компьютеров. Вместо этого Google нужно придумать новые подходы, такие как MUM, более эффективно использующие ресурсы, которые Google реально под силу создать. «Даже если вы дадите мне все существующие машины, я все равно останусь ограничен человеческим любопытством и познанием».

Новые способы понимания информации Google впечатляют, но проблема в том, что он будет делать с информацией и как он ее представит. Самое смешное в задаче о коммивояжере заключается в том, что, кажется, никто не останавливается и не спрашивает, что именно находится у него в чемодане. Что он показывает всем своим покупателям, ходя от двери к двери?