Искусственный интеллект против естественной глупости. Кто победит?

По материалам Android Authority

2023 год легко можно назвать годом искусственного интеллекта. Это сочетание слов по-прежнему на пике моды, а ChatGPT, Bard и им подобные чаще генерируют заголовки и новостные поводы, чем предлагают интересные и реально полезные сценарии использования, которые как-то могли бы улучшить некоторые аспекты нашей жизни.

К счастью, ИИ так до сих пор и не захватил мир. Надвигающаяся угроза, похоже, немного отступила, по крайней мере, на данный момент. А вот что действительно вызывает все больше беспокойства, так это тот факт, что люди вообще не очень хорошо понимают искусственный интеллект. Неважно, что мы делаем, просто задаем глупые вопросы или ищем способ немного разгрузить себя от работы, мы рискуем заменить собственное критическое мышление альтернативой, которая еще к этому не приспособлена.

Что такое ИИ на самом деле (и чем он не является)

Проблема в том, что искусственный интеллект пока не очень-то интеллектуален. Во всяком случае, сейчас он просто успешно обманывает нас, заставляя поверить в то, что он умный. Подсказка кроется в названии ChatGPT (часть «GPT» тоже важна, она означает Generative Pre-trained Transformer — «генеративный предварительно обученный трансформер»). Будь то Bard, Bing или что-то подобное, это большие языковые модели, которые в основном специализируются на создании текста, похожего на написанный человеком. На очень общем уровне это означает, что они чрезвычайно хороши в статистическом моделировании следующего вероятного слова (или токена), которое появляется в предложении. Благодаря большому объему данных для обучения это статистическое моделирование не только хорошо подходит для написания предложений, его применение становится намного более творческим и полезным.

Чем эти модели точно не являются, несмотря на их местами впечатляющие ответы, так это искусственным интеллектом общего назначения (хотя конечная цель – как раз общий искусственный интеллект). На самом деле, когда ИИ выплевывает сонет или генерирует работающий код, не происходит никакого анализа и не применяется критическое мышление. Тот факт, что большие языковые модели, очевидно, очень хороши в широком диапазоне задач, был обнаружен по счастливой случайности примерно во времена GPT-2. Используя сегодняшние, гораздо более обширные наборы данных, модели еще лучше справляются с получением точных ответов на основе более широкого диапазона входных данных.

Чтобы понять, почему это так, рассмотрим, что делает большая языковая модель, когда вы просите ее перечислить планеты Солнечной системы. Она не роется в памяти, формулируя ответ, и нет никакого аналога базы данных для поиска. Скорее она берет ваши входные данные и создает статистически вероятную строку текста на основе своих обучающих данных. Другими словами, чем чаще модель во время обучения встречала Марс, Землю и Сатурн в предложениях о планетах, тем больше вероятность того, что она сгенерирует эти слова, когда столкнется с подобным обсуждением в будущем. Это имитация подлинного знания, но не тот способ обучения, которым пользуемся мы с вами. Более того, если обучающие данные в основном состояли из статей до 2006 года, ваша большая языковая модель может ошибочно настаивать на том, что Плутон тоже планета (прости, Плутон, ничего личного).

Эту ситуацию несколько усложняют Bard и Bing, которые могут получать доступ к данным из Интернета. Но принцип остается прежним: большие языковые модели в первую очередь предназначены для создания удобочитаемых текстовых данных, которые удовлетворят людей. Если ответ еще и правильный — это бонус. Возможно, его получение и стимулировалось с помощью обучения с подкреплением, но этап, когда ИИ «думает» о правильном ответе на ваш вопрос, тут отсутствует. Отсюда все эти распространенные ошибки и неспособность ответить на некоторые простые вопросы, такие как «Который час?»

Математика — еще один отличный пример, помогающий понять этот момент. Большие языковые модели не производят вычисления, как традиционный компьютер; никакой вычислительный процессор не гарантирует правильный ответ. Он тоже не работает так же, как наш мозг. Вместо этого большие языковые модели выполняют математические операции практически так же, как они генерируют текст, выводя наиболее статистически вероятный следующий токен, но это не то же самое, что вычисление ответа. Однако интересное открытие заключается в том, что чем больше данных вы предоставляете большой языковой модели, тем лучше она моделирует математические вычисления (среди всего прочего). Вот почему GPT-3 и 4 несоизмеримо успешнее, чем GPT-2, в простой арифметике с двух- и трехзначными числами и получают гораздо более высокие баллы в самых разных тестах. Это никак не связано с тем, что они более способны с традиционной точки зрения обработки данных. Все потому, что они были обучены на гораздо большем количестве данных.

То же самое касается написания эссе, генерации кода и всех других, казалось бы, удивительных новых возможностей больших языковых моделей. Это симуляция усилий и размышлений, но результаты по-прежнему основаны на текстовых вероятностях. Вот почему вы часто будете видеть повторяющиеся стили и примеры, а также фактические ошибки. Тем не менее, эта возможность обучения «в контексте» делает большие языковые модели невероятно мощными и адаптируемыми к широкому спектру вариантов использования.

Однако если вам нужен способный и надежный ИИ для математических, физических или других научных экспериментов, вам придется обучать его совершенно иначе, чем большую языковую модель. Те, кто видит более общую картину, уже знают, что OpenAI предлагает различные модели, такие как DALL.E для создания изображений и Whisper для преобразования аудио в текст. Таким образом, хотя ChatGPT4 и, в конечном итоге, 5, несомненно, продолжат повышать точность и расширять диапазон возможностей, они по-прежнему являются языковыми моделями в своей основе.

Давайте перестанем задавать ИИ глупые вопросы

Но вернемся к заголовку. Нам действительно нужно лучше понять сильные стороны и подводные камни, прежде чем ставить перед ИИ какие-то задачи.

Хочется надеяться, всем понятно, что было бы глупо просить ИИ написать курсовую работу по естественным наукам. Вряд ли он правильно поймет уравнения, хотя в любом случае выдаст вам формулу в ответ. Наконец, очень безответственно пользоваться финансовыми советами от ИИ. Но даже, казалось бы, более банальные вопросы могут вызвать сложности. Хотя может быть забавно дразнить ИИ размышлениями на спорные темы или нарочно приводить к неправильному ответу, делиться ответами, сформулированными в виде рассуждений о вероятностях, потому что, будь это реальным мнением, его сочли бы крайне невежественным.

Если вы спросите чат-бота о предпочтениях или попросите что-то сравнить, он не станет опираться в ответе на собственные мысли, на обширное хранилище человеческих знаний или даже на коллективное мнение, скрытое в его наборе данных. Вместо этого он статистически смоделирует то, что считает оптимальным текстовым ответом, который он может предоставить на ваш запрос. Но это сильно отличается от настоящего обдумывания ответа. Вот почему эти модели принудительно отфильтровывают запросы и ответы, для которых не предназначены. Даже если вы можете намеренно вызвать такой ответ, его следует полностью игнорировать (это оговорка, сделанная в отношении нетолерантных ответов ИИ, которые они генерируют в силу «неправильной» информации из загруженных баз данных. — Прим. ред.).

Короче говоря, мы не должны путать ответ, напоминающий человеческий, с человеческим мышлением. Это не умаляет впечатляющего эффекта от симулякра ИИ и множества новых сценариев использования, для которых он действительно полезен. Но, в конце концов, есть много более захватывающих и экзистенциальных тем для размышлений об искусственном интеллекте, чем его предпочтения в фастфуде и дизайнерских брендах. Давайте не будем отдавать наше критическое мышление на откуп усовершенствованному варианту Т9.

[email protected]
наверх