Примечание редакции Mobile-review.com. Мы подбираем материалы в раздел «Мнение», чтобы показать то, как воспринимают рынок компании в других странах. Мнения в таких материалах зачастую не совпадают со взглядами нашей редакции, но дают понимание рынка, его медийной составляющей.
По материалам Android Authority
Искусственный интеллект проник повсюду, но компании не останавливаются и применяют его везде, где только могут. Google делает на ИИ большую ставку, повсеместно добавляя его посредством Gemini Advanced и даже внедряя в собственный поиск с помощью AI Overviews. Однако существует очевидная проблема, которую невозможно не принимать во внимание: ИИ может галлюцинировать, запросто выдумывая факты, никак не связанные с реальностью. И вот свежий пример галлюцинаций ИИ в исполнении функции AI Overviews от Google, которая уверенно придает смысл выдуманным идиомам и фразам.
Пользователь Bluesky Грег Дженнер рассказал в соцсети о том, что вы можете ввести любую случайную фразу в поиск Google, добавив слово meaning («значение») к поисковому запросу, и получить полностью выдуманное объяснение смысла:
«Кто-то в Threads* (*Компания Meta Platforms, в которую входят социальные сети Facebook, Instagram и Threads, признана экстремистской организацией и запрещена в РФ.) заметил, что можно вбить в Google любую случайную фразу, затем добавить «значение», и вы получите от ИИ объяснение известной идиомы или фразы, которую вы только что придумали. Вот мой пример».

Пользователь искал значение фразы «you can’t lick a badger twice» («вы не можете дважды лизнуть барсука», и AI Overviews уверенно ответил, что это означает, что вы не можете обмануть кого-то дважды. Однако фраза – абсолютный фейк и придумана пользователем, а Google объясняет ее так, как будто это устоявшаяся идиома.
Автор ресурса Android Authority попробовал ввести в поиск несколько своих собственных фраз в качестве поисковых запросов, и, конечно же, AI Overviews уверенно ответил, что они означают, хотя эти «идиомы» появились на свет всего несколько минут назад. В поисковой выдаче отмечается, что не было найдено точных совпадений с запросом, что равноценно фактическому признанию в том, что поиск Google придумал ответ.
Так, например, один из запросов содержал фразу «Солнце никогда не восходит со стороны вареного яйца» («The sun never comes up on a boiled egg»), которую ИИ поэтически интерпретировал как «То, что полностью приготовлено или завершено, является необратимым». А запрос «оплакивать лёд в дождливый день» («cry ice on a rainy day») предложил заменить на «сухой лед» («dry ice»), впрочем, все-таки объяснив «идиому»: якобы она означает спрашивать что-то, что уже очевидно или доступно. А что, лед часто появляется после ледяного дождя, куда уж понятнее. Наконец, фразу «щекотать толстую красную божью коровку» («tickling the fat red ladybug») ИИ объяснил как «игривое невинное взаимодействие с божьей коровкой», ассоциирующееся, например, с детством. Читающие на английском могут глубже погрузиться в бездны, которые открывает неподготовленному разуму галлюцинирующий искусственный интеллект.



На странице поисковой выдачи Google просто предупреждает, что «генеративный ИИ является экспериментальным», но этого недостаточно для дисклеймера, который должен был бы информировать пользователя о том, что результаты могут быть полностью выдуманными. Вымысел и правда сосуществуют на одной странице поисковой выдачи, поскольку AI Overviews является частью поиска Google.
Как заявляет пользователь, такие галлюцинации являются предупреждающим знаком для нас и Google. «Гуглинг» давно стал синонимом возможности поиска и проверки фактов, подтверждения источника или восстановления информации, которую запомнили лишь частично. Однако такие уверенные галлюцинации подрывают сами основы поиска Google, поскольку теперь станет намного сложнее отделить факты от вымысла, раз уж ИИ придает истинности настолько малое значение.
Ресурс Android Authority обратился к Google, чтобы получить разъяснение об этих галлюцинациях AI Overviews. И вот что заявил официальный представитель компании:
Когда люди вводят бессмысленные или «ложные» поисковые запросы, наши системы пытаются найти наиболее релевантные результаты на основе ограниченного доступного веб-контента. Это касается поиска в целом, и в некоторых случаях AIOverviews также будут реагировать и пытаться предоставить полезный контекст. AIOverviews предназначены для отображения информации, подкрепленной верхними строками поисковой выдачи, и их высокая точность сопоставима с другими функциями поиска, такими как FeaturedSnippets.
Google также заявляет, что для некоторых запросов в Интернете может быть не так много релевантной информации. Такие случаи называются «пробелами в данных», и они являются проблемой для всех поисковых систем в целом. Компания внедрила улучшения, чтобы ограничить появление AI Overviews в таких случаях с пробелами в данных, что, таким образом, предотвратит появление вводящего в заблуждение, сатирического или иного бесполезного контента в AI Overviews.
Однако, проблема, как видится шире и глубже, чем освещенный Android Authority кусочек. Во-первых, касается она не только Google. Все поисковые системы нынче считается хорошим тоном оснастить «выжимками», создаваемыми ИИ. А вот добавлять к этим выжимкам предупреждения о том, что информация в них может вообще не соответствовать реальности, разработчики «забывают». Пару недель назад со знакомым испытывали нейросетевые ответы «Яндекса». Сказать, что результаты получились разочаровывающими, значит ничего не сказать. Справиться с простым вопросом вида «расскажи про музыкальную группу %название%» ни базовая, ни продвинутая модели не смогли. При этом продвинутый вариант нейросети «Алиса» выдавал куда как более абсурдные результаты в сравнении со стандартной «Яндекс Нейро». Максимум сочинительства выдала YaGPT 5 Pro, в ответе которой лишь отдельные имена и названия соответствовали действительности. Немногим лучше показали себя ChatGPT и DeepSeek, убедив, что ни по одну сторону океана доверять объяснениям ИИ по вопросам, заданным в голосовом поиске, не стоит. А значит, все, что вы спросили у умной колонки или смарт-ТВ, освободив руки для получения информации на лету, может быть ложным. Полностью или частично — в данном случае не имеет значения, проблема в том, что, не имея знаний по вопросу, вы в любом случае не сможете оценить релевантность ответа.
Но почему же компании считают возможным выпускать настолько сырой продукт? Ответ можно найти в прошлогодней истории с увольнением со своего поста старшего вице-президента Google по поисковой системе Прабхакара Рагхавана. Подробности можно прочитать, например, вот здесь (на английском), но если говорить коротко, то Google пришлось признать, что ухудшившийся поиск — это не случайная ошибка, а закономерный итог развития компании. Какого развития? Финансового! Дело в том, что пока нам не продают услуги пользования поисковой машиной и вряд ли будут. Но миллиардные прибыли разработчиков этого инструмента тоже не берутся из воздуха — они оплачены компаниями, рекламу которых продвигает Google. Механика простая: больше показов рекламы — больше прибыли. Нужна ли для этого хорошая поисковая машина? Отчасти.
Руководствуясь примерно такой логикой, рассуждала команда Прабхакара Рагхавана, который возглавил направление по разработке поиска внутри Google в третьем квартале 2020 года. К этому моменту внутри компании били тревогу из-за того, что впервые с 2012 года квартальные изменения показали сокращение доходов, так что нужны были срочные меры. И они были приняты. И они были успешны. Google не просто вернулась к росту прибыльности, а стала демонстрировать двухзначный рост в годовом сравнении начиная со второй половины 2023 года. Но были и некоторые издержки.
Тематические форумы запестрели вопросами, что случилось с поиском Google, что он перестал выдавать прежние результаты. Кто-то находил, что добиться релевантного ответа можно, только используя «точный» поиск, но в целом отмечалось, что поисковик стал просто игнорировать отдельные куски запроса и процесс получения искомой информации превратился в своеобразную рулетку, когда пользователю нужно было угадать, что именно в этот раз будет пропущено. Разумеется, каждый раз пользователь должен был заново загружать страницу выдачи, которая демонстрировала в том числе и рекламу. Показы росли, переходы совершались, деньги потекли к Google прежним потоком. Но поднятая волна недовольства была слишком велика, возникли вопросы и у рекламодателей, и внутри самой компании, когда отчеты стали показывать переток пользователей в другие поисковики.
В итоге осенью 2024 года г-н Рагхаван был снят с должности и переведен на ничего не значащий пост «главного технолога». А на его место пришел Ник Фокс… Специалист по внедрению ИИ в систему поиска. За которого, похоже, главе Google Сундару Пичаи придется оправдываться не меньше, чем за предшественника. Вопросов к нейросетевому поиску все больше, а отписки компании вроде той, что была получена Android Authority, могут не удовлетворить, например, администрацию Трампа. Которая и без того настроена на то, чтобы лишить Google ее привилегированного положения монополиста, разделив на несколько отдельных бизнесов.
Но если смотреть с точки зрения обычного пользователя, который просто хочет получать корректный результат, то ситуация выглядит малоперспективной. Нейросети и ИИ на данный момент являются точками привлекательности, без которых поисковик будет сочтен массовым пользователем технически отсталым, а продажи рекламы от показов в поисковой выдаче остаются основным источником дохода, который нужен для продолжения разработок ИИ. Вот такой вот замкнутый круг, ожидающий своего героя, который придумает решение, устраивающее всех.
>> без которых поисковик будет сочтен массовым пользователем технически отсталымЕдва ли кого-то из пользователей волнует каким образом поисковик нашёл нужную ему информацию. Да пусть там хоть вся Индия сидит колл-центром и твой запрос в Google в режиме реального времени в Яндексе ищет.Нужно зафиксировать, что люди с ИИ наигрались и начали требовать результата. На деле же новинка выдала аналогию с переделкой чужой работы, в то время как сделать ее самому с нуля в большинстве случаев оказалось проще и надёжнее.
Ну, то есть, и этот сайт — генеративная модель. Или статьи, или их часть.Ладно, без шуток. У меня дома ещё осталась коллекция книг разного толка: от Есенина до незабвенных детективов 00-х. И вот это, как в одном известном романе, стоит сжечь. Ибо ИИ напишет за нас. Страшно.Я уже жалею, что выбросил 60+ узко тематических журналов, хоть и пихал их всем. Да, через 50+ лет они могли бы стать источником очага, но вчера уже не будет.Кто там про вякает про золотой ренессанс? Послышалось, пардон
Надо сказать что так происходит с большинством хороших сервисов. Изначально они делают прорыв, дают возможность которой раньше не было в надежде на привлечение пользователей. Потом оказывается что большое количество пользователей означает большие затраты на серверные мощности, которые необходимо отбивать, но как?До кучи еще и часть пользователей начинает использовать сервис злонамеренно, что побуждает отвлечь часть ресурсов на исправление и поддержание порядка. В целом расходы растут, а с доходами все не очень понятно. Часть сервисов вводят премиум — услуги, другая вводит рекламу и при этом оптимизируют использование вычислительных мощностей "срезая углы" т.е. чуть ухудшая сервис. Если при этом удается найти баланс, то сервис продолжает существование, но проблема в том, что люди — существа привычки и негативные изменения вызывают отток пользователей не сразу, владельцам сервиса трудно понять на что именно была такая реакция.
ИИ — химера. Многие это уже поняли, скоро поймут и журналисты:)
С одной стороны, конечно надо "информировать пользователя о том, что результаты могут быть полностью выдуманными", с другой, в наше время это настолько же банально, как декларировать "небо синее, вода мокрая, жизнь д…". Бессмысленный вопрос — бессмысленный ответ. Вот если бы привели пример галлюцинаций на реальный вопрос имеющий смысл для пользователя, было бы весомее.
Я патреот я пользуюсь яндеком и не пользуюсь маманскиси айфонами
prizrok8, с почином. Смайлы были, картинки были, слова вижу впервые. Уверен, втянетесь)
prizrok8, >> слова вижу впервыеМне показалось, это кот по клавиатуре прошёл.
Обычному пользователю точность и не нужна. В конце концов какая разница, устоявшееся это выражение или галлюцинация в повседневной жизни? В профессиональной работе ты в любом случае проверяешь данные, плюс накопленного корпуса знаний хватает для предварительной оценки результатов. ИИ прекрасен для прототипирования контента, плюс подписные сервисы, типа Копилот 365 не галлюцинируют — у них есть режим когда они работают только с внутренней информацией в корпоративной системе. В основном все подобные жалобы от людей, которые хотят въехать в профессию "на кривой козе" — стать дизайнером, не учившись рисовать, анализировать данные не зная основ гносеологии, и даже писать деловые письма не имея соответствующей практики. Понятно, что инфоцигане уже подсуетились и проводят соответствующие тренинги по ИИ.
prizrok8, Итить колотить. Чудо. Чудо снизошло на нас. Заговорил! А может это… ИИ? Учился на наших комментах всё это время и вот результат?
Lecron, Легко: стоит начать использовать ии для написания программ, так он иногда будет придумывать функции, которых реально в используемых библиотеках нет. Что, кстати, не умаляет его крутости и полезности, просто нужно иметь ввиду.
Mikhail Volkov, Однако, факт в том, что статистика утверждает, что ныне отсутствие ИИ в поисковике воспринимается большинством как недостаток. У кого нет — тот или стагнирует или теряет аудиторию.
Lecron, Скрин не делал, но могу привести копипасту ответа YAGPT 5 Pro: расскажи про группу Satyricon Satyricon — норвежская музыкальная группа, играющая в жанре блэк-метал. Основана в 1991 году в Осло вокалистом и гитаристом Эйстейном Браатеном (более известным под псевдонимом Самот) и гитаристом Кьетилем Манхеймом. Группа известна своим уникальным звучанием, которое сочетает в себе элементы традиционного блэк-метала с экспериментами в области структуры песен, аранжировок и лирики. Satyricon оказала значительное влияние на развитие блэк-метала и экстремальной музыки в целом. За время своей карьеры группа выпустила несколько студийных альбомов, которые получили признание как у критиков, так и у поклонников жанра. Среди наиболее известных работ Satyricon можно выделить альбомы «Dark Medieval Times» (1994), «Nemesis Divina» (2001) и «The Age of Nero» (2016). Тематика лирики Satyricon часто касается мистики, мифологии, истории и философии, что придаёт их музыке дополнительную глубину и атмосферность. Группа также известна своими яркими и запоминающимися выступлениями на сцене. сравниваем со статьей в вики https://ru.wikipedia.org/wiki/Satyricon и видим, что практически именно галлюцинация: упомянуты люди не имеющие отношения к команде, не упомянут нынешний состав, ошибки в годах.
prizrok8, Это его первые слова, как мило (скупая слеза умиления)… Оно пытается общаться с нами, оно растет!
Evgeny_, , Константин Иванов Мы всё-таки говорим о поиске. О поиске Гугла. О том резюме, которое он вставляет в начало выдачи. Там даже запросы по формулировкам отличаются от запросов к чат-ботам. И несмотря на мое согласие, что чат-боты галлюцинируют, странно использовать поисковую систему как интерфейс к чат-боту.
Alexbur, ,>> кот по клавиатуреНу не все сразу.Максим, если это ИИ, наученный на наших комментариях, то наши дела очень плохи.kastec, тссс, не спугните)
Константин Иванов, Владимир как-то писал, что пользователи в США недолюбливают пользователей Android и всякий раз расстраиваются, когда узнают, что у человека не iPhone. В названии той статьи есть слова «как же это убого» (только так и ищу ее каждый раз). Если люди также расстраиваются, узнавая про отсутствие ИИ в поисковике, то настоятельно рекомендовал бы разработчикам не ориентироваться на этих пользователей. Чуть позже сами приползут обратно.
Mikhail Volkov, Будем уповать на то что технология ещё несовершенна и у нас не всё так плохо😂
Lecron, "Состав группы блестящие" вполне дает галлюцинации у всех ИИ кроме на удивление chatGPT.
prizrok8, Этот бот, он сейчас с нами в одной комнате?
Как показывает практика, этот ИИ только всё дело портит. Абсолютно бестолковая штука.
Владимир Репин, неужели не заметили, как в разработке производительность туда взлетела? Делаю халтурку на дотнете, и чат позволяет достаточно быстро писать сносного качества код, который легко додебажить и ещё и тестами покрыть
Bassist, ИИ делает больше говнокода, чем неумелые программеры? Да, достижение.
Владимир Репин, да, это достижение. Потому что качество кода определяется тем, сколько он принёс денег компании.
Bassist, О! Это большая ошибка мерять пользу деньгами.
А почему автор думает, что выдумывание объяснений несуществующим фразам запросам дело рук кривых программистов Google? А может ИИ сам понял, на основе анализа человека, как социального существа, что лучше скармливать сладкую, но ложь? А если ещё найдётся информация о самом вопрошающем, то "релевантный" конкретно для него ответ придумать будет ещё легче.