По материалам Android Authority
2023 год легко можно назвать годом искусственного интеллекта. Это сочетание слов по-прежнему на пике моды, а ChatGPT, Bard и им подобные чаще генерируют заголовки и новостные поводы, чем предлагают интересные и реально полезные сценарии использования, которые как-то могли бы улучшить некоторые аспекты нашей жизни.
К счастью, ИИ так до сих пор и не захватил мир. Надвигающаяся угроза, похоже, немного отступила, по крайней мере, на данный момент. А вот что действительно вызывает все больше беспокойства, так это тот факт, что люди вообще не очень хорошо понимают искусственный интеллект. Неважно, что мы делаем, просто задаем глупые вопросы или ищем способ немного разгрузить себя от работы, мы рискуем заменить собственное критическое мышление альтернативой, которая еще к этому не приспособлена.
Что такое ИИ на самом деле (и чем он не является)
Проблема в том, что искусственный интеллект пока не очень-то интеллектуален. Во всяком случае, сейчас он просто успешно обманывает нас, заставляя поверить в то, что он умный. Подсказка кроется в названии ChatGPT (часть «GPT» тоже важна, она означает Generative Pre-trained Transformer — «генеративный предварительно обученный трансформер»). Будь то Bard, Bing или что-то подобное, это большие языковые модели, которые в основном специализируются на создании текста, похожего на написанный человеком. На очень общем уровне это означает, что они чрезвычайно хороши в статистическом моделировании следующего вероятного слова (или токена), которое появляется в предложении. Благодаря большому объему данных для обучения это статистическое моделирование не только хорошо подходит для написания предложений, его применение становится намного более творческим и полезным.
Чем эти модели точно не являются, несмотря на их местами впечатляющие ответы, так это искусственным интеллектом общего назначения (хотя конечная цель – как раз общий искусственный интеллект). На самом деле, когда ИИ выплевывает сонет или генерирует работающий код, не происходит никакого анализа и не применяется критическое мышление. Тот факт, что большие языковые модели, очевидно, очень хороши в широком диапазоне задач, был обнаружен по счастливой случайности примерно во времена GPT-2. Используя сегодняшние, гораздо более обширные наборы данных, модели еще лучше справляются с получением точных ответов на основе более широкого диапазона входных данных.
Чтобы понять, почему это так, рассмотрим, что делает большая языковая модель, когда вы просите ее перечислить планеты Солнечной системы. Она не роется в памяти, формулируя ответ, и нет никакого аналога базы данных для поиска. Скорее она берет ваши входные данные и создает статистически вероятную строку текста на основе своих обучающих данных. Другими словами, чем чаще модель во время обучения встречала Марс, Землю и Сатурн в предложениях о планетах, тем больше вероятность того, что она сгенерирует эти слова, когда столкнется с подобным обсуждением в будущем. Это имитация подлинного знания, но не тот способ обучения, которым пользуемся мы с вами. Более того, если обучающие данные в основном состояли из статей до 2006 года, ваша большая языковая модель может ошибочно настаивать на том, что Плутон тоже планета (прости, Плутон, ничего личного).
Эту ситуацию несколько усложняют Bard и Bing, которые могут получать доступ к данным из Интернета. Но принцип остается прежним: большие языковые модели в первую очередь предназначены для создания удобочитаемых текстовых данных, которые удовлетворят людей. Если ответ еще и правильный — это бонус. Возможно, его получение и стимулировалось с помощью обучения с подкреплением, но этап, когда ИИ «думает» о правильном ответе на ваш вопрос, тут отсутствует. Отсюда все эти распространенные ошибки и неспособность ответить на некоторые простые вопросы, такие как «Который час?»
Математика — еще один отличный пример, помогающий понять этот момент. Большие языковые модели не производят вычисления, как традиционный компьютер; никакой вычислительный процессор не гарантирует правильный ответ. Он тоже не работает так же, как наш мозг. Вместо этого большие языковые модели выполняют математические операции практически так же, как они генерируют текст, выводя наиболее статистически вероятный следующий токен, но это не то же самое, что вычисление ответа. Однако интересное открытие заключается в том, что чем больше данных вы предоставляете большой языковой модели, тем лучше она моделирует математические вычисления (среди всего прочего). Вот почему GPT-3 и 4 несоизмеримо успешнее, чем GPT-2, в простой арифметике с двух- и трехзначными числами и получают гораздо более высокие баллы в самых разных тестах. Это никак не связано с тем, что они более способны с традиционной точки зрения обработки данных. Все потому, что они были обучены на гораздо большем количестве данных.
То же самое касается написания эссе, генерации кода и всех других, казалось бы, удивительных новых возможностей больших языковых моделей. Это симуляция усилий и размышлений, но результаты по-прежнему основаны на текстовых вероятностях. Вот почему вы часто будете видеть повторяющиеся стили и примеры, а также фактические ошибки. Тем не менее, эта возможность обучения «в контексте» делает большие языковые модели невероятно мощными и адаптируемыми к широкому спектру вариантов использования.
Однако если вам нужен способный и надежный ИИ для математических, физических или других научных экспериментов, вам придется обучать его совершенно иначе, чем большую языковую модель. Те, кто видит более общую картину, уже знают, что OpenAI предлагает различные модели, такие как DALL.E для создания изображений и Whisper для преобразования аудио в текст. Таким образом, хотя ChatGPT4 и, в конечном итоге, 5, несомненно, продолжат повышать точность и расширять диапазон возможностей, они по-прежнему являются языковыми моделями в своей основе.
Давайте перестанем задавать ИИ глупые вопросы
Но вернемся к заголовку. Нам действительно нужно лучше понять сильные стороны и подводные камни, прежде чем ставить перед ИИ какие-то задачи.
Хочется надеяться, всем понятно, что было бы глупо просить ИИ написать курсовую работу по естественным наукам. Вряд ли он правильно поймет уравнения, хотя в любом случае выдаст вам формулу в ответ. Наконец, очень безответственно пользоваться финансовыми советами от ИИ. Но даже, казалось бы, более банальные вопросы могут вызвать сложности. Хотя может быть забавно дразнить ИИ размышлениями на спорные темы или нарочно приводить к неправильному ответу, делиться ответами, сформулированными в виде рассуждений о вероятностях, потому что, будь это реальным мнением, его сочли бы крайне невежественным.
Если вы спросите чат-бота о предпочтениях или попросите что-то сравнить, он не станет опираться в ответе на собственные мысли, на обширное хранилище человеческих знаний или даже на коллективное мнение, скрытое в его наборе данных. Вместо этого он статистически смоделирует то, что считает оптимальным текстовым ответом, который он может предоставить на ваш запрос. Но это сильно отличается от настоящего обдумывания ответа. Вот почему эти модели принудительно отфильтровывают запросы и ответы, для которых не предназначены. Даже если вы можете намеренно вызвать такой ответ, его следует полностью игнорировать (это оговорка, сделанная в отношении нетолерантных ответов ИИ, которые они генерируют в силу «неправильной» информации из загруженных баз данных. — Прим. ред.).
Короче говоря, мы не должны путать ответ, напоминающий человеческий, с человеческим мышлением. Это не умаляет впечатляющего эффекта от симулякра ИИ и множества новых сценариев использования, для которых он действительно полезен. Но, в конце концов, есть много более захватывающих и экзистенциальных тем для размышлений об искусственном интеллекте, чем его предпочтения в фастфуде и дизайнерских брендах. Давайте не будем отдавать наше критическое мышление на откуп усовершенствованному варианту Т9.
При обсуждении ИИ главное не забывать, что люди тоже не особо умеют в критическое мышление, максимум — могут внятно пересказать, что им рассказали по телевизору (бумеры) или в тиктоке (зумеры)
GrishaTav_SE, У человеков настолько другая модель обучения, что их некритическое мышление, статистически на порядок критичнее, чем у языковой модели.
Резюмируя. Модель может отвечать на
1. Широкоизвестные вопросы, но которые ранее лежали вне ваших интересов;
2. Более специализированные вопросы, с вами в роли эксперта по ним. То есть потенциально могут снять рутину, на которую вам, такому опытному, лень тратить время. Снимут ли реально или вы больше времени потратите на коррекцию ответа, также зависит от уровня известности темы.
Lecron, Часто просто транслируется внешняя инфа из одного источника, особенно там, где нет либо особого образования, либо особого интереса. Мышление не задействуется.
GrishaTav_SE, Вы слишком узко смотрите. Мы это проходили в дискуссии про автопилот и блондинку.
1. Странно сравнивать с худшим, а не средним представителем.
2. Еще более странно, избирательно подходить к вопросу сравнения. Обычно выбирается тот, к которому человек проявляет лишь досужий интерес. На самом деле, критическое мышление в сутки принимает сотни, а то и тысячи решений, исходя из граничных условий. Просто они не формализованы в текст/речь. В лучшем случае, идет как внутренний диалог. Если же формализовать, увидите реальное умение в критическое мышление. Вот его и сравнивайте.
Lecron, Главное не забывать что и на широкоизвестные вопросы модель может выдать неправильный ответ 🙂 Просто в силу того что она не знает правильный ответ — для нее любой входящий материал, используемый для обучения является условно правильным.
Ubeavis, Не факт, что спрашивающий обучался бы на другом входящем материале и пришел к иным выводам. Лично я воспринимаю ответ сети, как компилятивную статью в некоем блоге. Ознакомительно.
Ubeavis, Будто бы человекообразный не может выдать чушь. Просто в силу того, что идиот.
Lecron, Подождите, это же не автопилот средства повышенной опасности. Тут даже уровень худшего представителя — уже победа.
GrishaTav_SE, Победа, не победа, но некоторый успех есть, да'c. Только я про другое. Аргумент про тупость человечества, не лезет ни в какие рамки. Ошибка выжившего в квадрате. Да нет, в кубе. Смело не замечаем 999 случаев критического мышления и раздуваем 1 случай его отсутствия.
Lecron, А все равно, даже 1 решение из 999 — уже норм, лиха беда начало. Ещё раз, автопилот, который умеет поворачивать только направо, летом и по грунтовой дороге, никому не нужен. ИИ, который пусть даже только помогает выбрать вкусную конфету, уже ОК. Одной заботой меньше.
GrishaTav_SE, Чукча не читатель. Да? Я ничего не говорю про ИИ. Но люди кардинально рациональнее, чем вы их тут выставляете.
Lecron, Конечно же нет. Мы видим сложные размышления какой-то тетки, где покупать рис, в Пятерочке или Магните, восхищаемся, какой рациональный выбор, купила в Пятерочке на 5 руб дешевле. А ведь существует 100500 неотработанных и неотдуманных 🙂 способов купить этот несчастный рис, включая заказ на Алиэкспресс и ИИ вполне их может отработать. Продолжаете восхищаться теткой? Давайте введем критерий глубины мышления и тогда ваш счет 999:1 будет уже не таким разгромным.
GrishaTav_SE, Скорее нужен критерий глубины задачи, а не мышления. Потому что эта тетка еще ведет домашнее хозяйство, воспитывает детей, работает на работе, сотрудничает с множеством других людей, решая множество попутно возникающих задач.
Опять же, "ИИ вполне может отработать" (а может и не сможет), а тетка это уже делает, многие годы, за которые пока не допустила критичных эпикфейлов. Продолжите утверждать что человечество не умеет в критичность мышления?
И да, ИИ тоже пересказывает услышанное из "телевизора", возможно сгенерированное этой самой теткой :))
Lecron, Ну вот вы уже начинаете оправдывать тетку, да эпикфейлов она не допустила, но, вероятно, постоянно разбазаривает какую-то часть семейных денег на не самые оптимальные цены (маркетологи из Пятерочки радостно потирают руки). ИИ, наверное, где-то уже сейчас способен производить закупки оптимальнее, отрабатывая на порядки больше вариантов.
GrishaTav_SE, А еще хуже когда этот идиот до этого какие то правильные мысли высказывал… были уже примеры, в итоге чушь признается правдой тупо в силу каких то прошлых достижений…
Напоминает кстати рекламу, внезапно для многих людей показателем качества является то что в рекламном ролике селебрять какая-нить говорит что это хорошая штука.
Интересно кстати если ли у этого эффекта какой то название… людская тупость это скорее неофициальное название 🙂
GrishaTav_SE, Ничуть не оправдываю. Лишь призываю оценивать эффективность комплексно. По ВСЕМ принятым решениям.
И напомню с чего начался диалог — некритическое мышление человеков, статистически на порядок критичнее языковой модели. Акцентирование наихудших случаев, на фоне которых модель смотрится более выигрышна, отдает каким-то мерзким маркетингом. Именно так на продвигают многие вещи.
Lecron, Ну да, пока человекообразные имеют какие-то преимущества. Но тенденции негативные.
GrishaTav_SE, Да где они негативные? Поищите стоимость всех поколений GPT. Экспоненциальный по расходам рост. А ощущение прогресса, от эффекта низкого старта. Вот ничего не было и уже что-то есть. Но дальше тупик. Да его могут прорвать в сравнительно ближайшем будущем, а можем застрять на долгие десятилетия.
Какие-то у вас избыточно пессимистичные впечатления о человечестве и излишне оптимистичные, вплоть до мечтательности, ожидания от нейросетей. Вас Скайнет не покусал? Нет? Ну тогда смахивайте с ушей этот хайп.
Lecron, Тупик — это Твиттер и Тикток, вот тут уже никаких сомнений нет — полное отупение человечества. А Скайнет — он еще непонятный, все может быть…