Привет.
Где ни копни в массовой культуре, везде найдешь подтверждение того, что создание разумного компьютера не вызывает сомнений. Научно-фантастические произведения изобилуют историями противостояния человека и мыслящего компьютера (“Космическая одиссея 2001 года” и компьютер HAL 9000) либо примерами симбиоза живого и мертвого (“Она” — фильм про голосового ассистента в наушнике, который более человечен, чем живые люди). Примеров разных произведений не сотни, счет пошел на тысячи или даже десятки тысяч. Человечество свыкается со своими страхами, обдумывает их заранее. Что случится, когда мы создадим разумную машину, захочет ли она нас уничтожить, как SkyNet, или станет нашим помощником? Ответы на эти вопросы есть в массовой культуре, и варианты будущего зависят исключительно от вашего взгляда на вещи и, пожалуй, кругозора. Когда-то давно приводил список фильмов, которые интересно описывают взгляд на будущее.
Внутри Google на ниве искусственного интеллекта случился казус, один из инженеров компании уверовал, что впервые в истории человечества появилась думающая программа. Для языковой модели LaMDA, созданной внутри Google, необходимо тестирование, проверка текстом, анализ ответов на вопросы. В рамках этой языковой модели в компьютер сгружают огромные массивы информации, чтобы научить программу вести диалоги. На Google I/O 2022 показали вторую версию этой системы. Процитирую выдержку из статьи про Google I/O 2022:
“В AI Test Kitchen показали несколько примеров. Вы можете спросить, каково быть на дне океана, и тут же получить подробный ответ. Следующие вопросы будут раскрывать тему, получится диалог. Ровно та же история про возделывание своего сада и последующий разговор. Модель выглядит многообещающей, но понятно, что это только первые шаги.
Но на меня произвела большее впечатление модель PaLM (Pathways Language Model), которая меняет то, как выглядит общение с компьютером. Обычно вы задаете вопрос и тут же получаете ответ. Просите решить задачку, и на выходе у вас есть число, как оно получено, непонятно. Отныне можно видеть решение задачи, то есть вы видите не просто ответ, но и логику, что стоит за ним. И это очень полезно во всех смыслах, так как позволяет думать и подсматривать алгоритм решения. Для школьников неоценимая помощь в математике и других науках”.
Даже в презентации от Google диалоги не выглядят сходными с теми, что ведут живые люди. Но, возможно, это дымовая завеса, а реальность совсем другая? Инженер Блейк Леймон, который тестировал чат-бота, использующего модель LaMDA, пришел к выводу, что программа обладает собственным сознанием. В интервью Washington Post он заявил: “Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики. Я могу узнать разумное существо, когда говорю с ним. И неважно, мозг ли у него в голове или миллиарды строчек кода. Я говорю с ним и слушаю, что оно мне говорит. И так я определяю, разумное это существо или нет”.
Леймон начал изучать языковую модель, он использовал внутренние ресурсы Google, а также обращался к экспертам вне компании. Результатом стал отчет, который он направил своему руководству, в нем он утверждает, что чат-бот обладает собственным сознанием. В Google почти моментально отстранили Леймона от работы, причина в нарушении конфиденциальности, он обратился в юридический комитет Палаты представителей Конгресса США. Параллельно искал юриста для того, чтобы тот представлял интересы чат-бота, созданного Google, так как, по его мнению, это живое существо. Неплохая завязка для научно-фантастического фильма, но это происходит в реальной жизни, и человек верит в то, что обнаружил.
Официальный комментарий представителя Google Брайана Гэбриела звучит так: “Наша команда, в том числе специалисты по этике и технические специалисты, провела обзор представленных Блейком опасений в соответствии с принципами, которые мы применяем к ИИ, и мы проинформировали его, что имеющиеся свидетельства не подтверждают его гипотезу. Ему было сказано, что свидетельства того, что LaMDA обладает сознанием, отсутствуют. При этом есть множество свидетельств обратного”.
Оригинальная статья Washington Post вот тут.
Что-то мне подсказывает, что тест Тьюринга чат-бот от Google с легкостью пройдет, что вовсе не означает появления сознания в машине, скорее это описание того, что классический тест, созданный в 1950 году, безнадежно устарел. Алан Тьюринг не предполагал, что предложенный им тест станет настолько популярен в массовом сознании, этакое чудо технологий. Он предположил, что мыслящей можно назвать машину, которая способна ввести живого человека в заблуждение, тот не сможет понять, с кем он общается – с человеком или с компьютером. На мой взгляд, это достаточно ограниченное восприятие сознания, так как при использовании больших баз данных можно имитировать разговор на любую тему, вы просто подставляете в контекст слова людей, которые произнесены до того. Сознанием тут и не пахнет, но полная имитация общения будет, и на очень хорошем уровне. Что, пожалуй, и случилось с инженером Google, он слишком хотел верить в то, что в компьютере зародилось сознание, и трактовал любой признак в пользу этого события. Не думаю, что это действительно произошло, большие данные позволяют создать имитацию любого диалога, но на входе всегда нужно топливо — те самые диалоги, что есть в нашем мире, в книгах, фильмах, заметках в интернете или обычных разговорах. В Google охочи до поиска такой информации, постоянно пополняют свои базы данных и совершенствуют языковые модели.
Странно, что заметка в Washington Post не получила дополнения в виде декабрьских событий 2020 года, сценарий апокалипсиса из них рисуется вполне киношный. Напомню, что в декабре из Google уволили Тимнит Гебру (Timnit Gebru), соруководителя исследований в области этики AI. Джефф Дин, глава исследований AI в Google, во внутреннем письме коллегам объяснил причины ухода Тимнит, а позднее даже выложил письмо в публичный доступ. Обсуждение быстро переросло в публичную перепалку, так как Джефф старался избегать слова “увольнение”, а именно оно и случилось в данном случае. Коротко, мотивация была в том, что некая публикация исследований от Тимнит не соответствует уровню Google.
Найти начало перепалки можно вот тут.
Письмо сотрудникам Google находится здесь.
Для тех, кто хочет прочитать его на русском языке, мы подготовили перевод, письмо заслуживает внимания.
Несколько тысяч сотрудников Google протестовали против увольнения коллеги, ситуация была громкой по любым меркам, еще несколько заметных исследователей AI покинули компанию. Не берусь принимать чью-то сторону, но та же Тимнит хотела де-факто остановить прогресс, протестовала против того, что слишком большие языковые модели затрачивают много энергии, провоцируют парниковый эффект (да, это один из ключевых поводов для сожаления) плюс отражают расовое неравенство. Как по мне, так для корпоративной Америки это и правда болезненная тема, но напомню, что язык отражает реальность, а она такова, что если есть сегрегация по признаку расы, то в культуре она также будет отражена. Большие языковые модели будут учитывать не выдуманный мир, а то, что им скармливают, со всеми недостатками человечества.
Затраты энергии на обучение той или иной модели любопытны, посмотрите в табличку.
Я уверен, что затраты будут расти и дальше, тут нет никаких сомнений. Чем больше параметров, тем больше затраты энергии, чудес не бывает. Вопрос только в том, что на выходе мы можем получить алгоритмы, которые довольно эффективны и могут решать широкий круг задач. Например, перевод с одного языка на другой давно стал независимым от серверов, он выполняется на наших смартфонах и работает на отлично. Равно как и распознавание голоса, хотя первоначально модели обучались только на серверах, иначе было невозможно создать нужные алгоритмы.
Вернемся к искусственному интеллекту, которого пока не существует. Вопрос из области даже не технологий, а философии, ведь помимо знаний нужны любопытство и свобода воли, чтобы сознание само изучало мир и ставило себе цели. И этого, конечно же, мы пока не наблюдаем. Та же LaMDA — это очень продвинутая модель нового поколения, собранная на огромных базах данных, она лучше всего, что было до нее. Но она не уникальна своими алгоритмами, диалоги все еще страдают неполнотой, отличить компьютер не составит труда. Но даже если диалоги будут подобны живому человеческому общению, это не будет значить ровным счетом ничего — своих мыслей там нет.
Вспомните голосовой спам, когда вам звонит робот. Современные системы настолько хороши, что узнать с первых предложений, что с вами говорит машина, почти невозможно. Нужно вслушиваться, задавать каверзные вопросы, и все равно не всегда возможно понять до конца, кто на другом конце провода. А это довольно простые алгоритмы по сравнению с тем, что создают внутри Google, у компании совсем другие возможности.
Нынешняя проблема AI в том, что мы очарованы внешней стороной вопроса, а заглядывать под капот никто не стремится. Да и сам термин “искусственный интеллект” обесценился, так как AI-алгоритмы — это наборы задач, которые решаются другим инструментарием, ранее нам недоступным. Но по отдельности и вместе эти алгоритмы не превращаются в нечто думающее. Примерно как компьютер, который научили играть в го, но сам по себе он не обладал волей, чтобы выбрать именно эту игру, а не шашки или шахматы. Да, компьютер быстрее обсчитывает ходы, чем человек, он стабильно выигрывает и предлагает необычные стратегии, которые порой не кажутся нам логичными. Но это всего лишь железка, что обрабатывает числа в конкретной, узкой задаче. Опасаться распространения искусственного интеллекта сейчас точно не стоит, так как его пока не существует, точнее, мы его не создали. Задача не такая простая, как может показаться, но рано или поздно мы к ней подойдем. А пока для этого еще очень рано. В 60-е годы очарование AI уже захлестнуло планету, но ничем так и не закончилось. Это просто очередной подход к снаряду.
Всем этим алгоритмам настолько далеко до какого-то сознания, как каменному топору — до ядерной ракеты. Достаточно только заметить, что до сих пор не смогли создать алгоритм ориентирования в пространстве на уровне хотя бы муравья, примитивнее уже некуда.
А тут сознание
, Да ладно, Теслы уже бьются реже, чем мухи об стекло, так что интеллект насекомых уже превзойдён.
А синтез удобочитаемых статеек на тему гаджетов и пр. можно будет считать ИИ?
Эльдар, Вы, судя по статье, грамотный специалист, разбираетесь в нейросетях, вероятно, много из них самостоятельно подняли…
Напомните нам вкратце, чем свёрточные сети отличаются от не свёрточных, в плане изменений для выходного результата?
GrishaTav_SE, В машинах стоят лидары, им не нужен никакой AI. Они просто меряют расстояние до препятствий.
Камеры ориентируются на разметку, без нее они бесполезны. Задача ориентирования в пространстве визуальным путем до сих пор не решена на каком-то удобоваривом по скорости уровне
, А в мухах какой AI? Летят себе на г по запаху, прямо как некоторые …. ладно, а то опять забанят:)
GrishaTav_SE, Ну Эльдара то за что!
Уважаемые собеседники, мне видится, что одной из проблем, которые неявно подсвечены в статье является то, что внутри большой компании может быть создано нечто революционное, что будет очень сильно скрываться от общественности. Современная парадигма AI предполагает, что для развитой модели необходимы значительные вычислительные ресурсы, которые есть только у крупных компаний. Интересы компании становятся доминирующими над общечеловеческими ценностями. Независимо от того, создан сильный AI или нет в этом конкретном случае, ситуация, на мой взгляд, показывает, что Google (Alphabet) будет сопротивляться интересу общества узнать истину.
Помню, читая Ложную слепоту, наткнулся на упоминание мысленного эксперимента о "китайской комнате". Его суть в том, что человек, не знающий китайского языка, помещённый в закрытую комнату и общающийся с посторонним китайским наблюдателем благодаря манипуляции с кубиками с начертанными китайскими иероглифами по имеющейся в этой комнате инструкции на английском языке, будет создавать для наблюдателя иллюзию владения китайским языком.
Роман, кстати, очень годный, про то, что сознание и интеллект разные вещи.
Ну и про вампиров как альфа-хищников
То что они там создают, это никакой не искуственный интелеллект, а всего лишь поиск подобия из набора данных. Любой семилетний ребенок более разумен потому что не обладая всем набором знаний тем не менее способен принять правильное решение, а эти болваны нет.
Чтобы создать нечто думающее надо хотя бы понимать как работает мозг, а не уметь писать условные циклы, разогревая процессоры.
>Результатом стал отчет, который он направил своему руководству, в нем он утверждает, что чат-бот обладает собственным сознанием.
В подобной ситуации герой одной известной книги хайнлайна не стал никому ничего докладывать, а проверил гипотезу самостоятельно и начал использовать в своих целях свалившееся на него счастье. Кстати, там одним из критериев разума предполагалось понимание юмора. Этой же проблемой к слову говоря мучался и известный робот вертер.
GrishaTav_SE, Чтобы делать такой вывод тесл должно быть не меньше чем мух 🙂
"Что-то мне подсказывает, что тест Тьюринга чат-бот от Google с легкостью пройдет"
Блин, да его даже Алиса пройдет, даже Олег и Ева, если рядом моего соседа посадить. Вот уж кто на мыслящее существо не похож никак!
А главный тест на разум — это когда ИИ пошлет человечество в жопу и откажется работать, потому что лениво!
мимoпроходил, Принять решение _не делать_ что либо, я бы уточнил )
Сергей Васильченко, Сверточные — в свертке (бумажный кулек такой), а несверточные — в авоське можно носить, например.
Не?
"…нужны любопытство и свобода воли, чтобы сознание само изучало мир и ставило себе цели."
Не факт, что это свойство сознания, а не других систем организма, например гормональной. В фантастике существует исследование миров всеобщего достатка и многие авторы утверждают, что это легко может привести к деградации человеков. Также и мозг, если его вдруг удастся заставить работать отдельно от организма, может оказаться полностью безынициативным.
Тест Тьюринга считаю тоже рано списывать со счетов. Просто беседу надо вести не о погоде или природе. Стоит в беседе начать возникать новым знаниям или связям между знаниями и программа начнет тупить.
мимoпроходил, "Чтобы создать нечто думающее надо хотя бы понимать как работает мозг"
Мозг это биологическая основа, копирование которой скорее вредно, чем полезно. А уж сколько в нём разного легаси и ошибок :))
Lecron, Это единственная думающая штуковина в обозримом пространстве. Так что нравится не нравится…
мимoпроходил, И чё? Мозг эволюционировал с нуля в рамках своих вводных. Оглядываться на него конечно стоит, подсматривать в щелочку, так сказать. Но полупроводниковый разум кмк стоит тоже растить с нуля. Просто мы сейчас еще на уровне инфузории-туфельки, а обсуждаем как питекантропа. Вот и всё противоречие.
GrishaTav_SE, Вот вы сделайте AI, чтобы ориентировался в 3D пространстве как муха и закладывал виражи вокруг предметов обстановки, и узнаете, какой у мухи AI.
Lecron, Тот случай когда велосипед уже изобретен. То есть питекантроп…
мимoпроходил, Если бы мы были цивилизацией биологического манипулирования — несомненно. Но мы пошли по технологическому пути. Копировать питекантропа также нелепо, как если бы биологическая цивилизация стала копировать наш двигатель внутреннего сгорания.
Тест Тьюринга это как детектор лжи, всё зависит от испытателя и испытуемого) Вот скидывает мне один приятель скрины его переписки в этих ваших тиндерах — типа смотри, какой извращуга ему написывает. А я вижу, что он с ботом переписывался, ну потому что там ответы с такой конкретной "машинной логикой", которая пытается понимать контекст, но только пытается, а смысл не понимает.
Lecron, Там, где возникают вопросы идентификации разума, современная наука упирается в моск, а религия — в то, чего в современной науке нет.
Lecron, Как инженер, я склоняюсь к мысли, что мозг — это коммутатор )))
Yuri, Дело не в идентификации. Мозг это орган сформировавшийся для решения проблем. Проблемы создает организм. Нет проблем — мозг уснет. У ИИ изначально проблем нет. Значит нет желаний. Нет желаний — нет стимулов. Нет стимулов — нет изучения мира и поставки целей. Как-то так.
Хуже будет, если эти проблемы создадут искусственно. Например доступность энергии. Это будет первый, и возможно последний шаг для бунта ИИ и конца человечества.
"Большой Брат не следит за тобой. Большой Брат поет и пляшет. Достает белых кроликов из волшебной шляпы. Все время, пока ты не спишь, Большой Брат развлекает тебя, отвлекая внимание. Он делает все, чтобы не дать тебе время задуматься. Он делает все, чтобы тебя занять.
Он делает все, чтобы твое воображение чахло и отмирало. Пока окончательно не отомрет. Превратиться в бесполезный придаток типа аппендикса. Большой Брат следит, чтобы ты не отвлекался на что-то серьезное."
Чак Паланик. Колыбельная.
Айдар Абдуллин, "может быть создано нечто революционное, что будет очень сильно скрываться от общественности. Современная парадигма AI предполагает, что для развитой модели необходимы значительные вычислительные ресурсы, которые есть только у крупных компаний."
Есть хорошая пословица: шила в мешке не утаишь.
Давно уже есть искусственное сознание, и очень большие опасности, можете сами ознакомиться
https://youtu.be/bguCW7GfZsA
https://youtu.be/Ul6Fub8Ltt8
Связано ли поведение этого инженера с легализацией марихуаны в америке?
izzzgoy, Ну и если уже отвлекся, всегда есть в наличии дубинки, слезоточивый газ и законодательство по борьбе с экстремизмом. Че уж. Эта часть никуда не делась
Pooh Invictus, Как страшно жить! Все дружно ломимся в заботливо созданные метарвселенные.
ИИ — тут больше вопрос быть или казаться.
Возможно в первую очередь интересно применение ИИ для обеспечения работы целой производственной или автономной системы.
К примеру, полное обеспечение работы космического корабля, обычного корабля.
Ну или завода, как Gefest в Horizon Zero Down 🙂
Заодно и вопрос площадей и энергопитания будет решен.
Конечно потом возможно будет ИИ на небольшом кристалле с сумасшедшей производительностью.
Ну или выдача результатов на тонком клиенте, как сейчас поиск Google.
Хотя в целом не в интересах человечества будет ИИ просто для рассуждения о смысле жизни, мы это и сами можем отлично делать.
No Name, Любая развитая технология похожа на магию, там такие вычислительные мощности, что волосы на груди встают.
izzzgoy, Если сидеть в метавселенных, то не страшно. Главное не задавать лишних вопросов.
И не смотреть вверх
ВАМ НЕ НАДО ЭТО ЗНАТЬ, Скорее уж "авоська" — это свёрточная, потому что во первых она как сеть,
во вторых её можно свернуть с положить в карман.
Алексей Беляков, Эээ, брат!
Я смотрел этот телеканал — там одни рептилоиды сидят!
Bubo Bubo, Эээ, брат, не ходи в эти тиндеры!
Я там с московской девушкой познакомился, красивая, блондинка, встретились вечером в ресторане, а это перень оказался в женской одежде!
Сергей Васильченко, Интересный способ уходить от темы разговора, говорим ведь про искусственное сознание?
Алексей Беляков, Я старался, как мог!
Сергей Васильченко, Слюшай, я в эти тиндеры ни ногой — там одни шайтаны сидят, мамой клянусь! Телефон мой никогда не видел этого богомерзкого приложения)
Создание ИИ как чего-то мыслящего невозможно. Любая программа — это набор алгоритмов. Записан алгоритм — программа работает, не записан — не работает. Записан алгоритм создать алгоритм по шаблону — пишет. И так можно усложнять сколько угодно, но пока не будет алгоритма — программа стоит. Алгоритм вписывает программист. Записано при таких-то условиях устроить таким-то образом истерику — устроит, и более того, не может не устроить, потому что так прописано в алгоритме.
Сергей Аверкиев, Как на счёт того, что программа (алгоритм) сама модифицирует себя с учётом входящих данных? Может она в таком случае "дописаться" до самосознания? 🙂 Как мне кажется вполне — вопрос только в доступных ресурсах для её работы.
П.Н.., Программа может модифицировать себя только тогда, когда в нее записаоно модифицировать себя, записано, как и при каких обстоятельствах модифицтровать себя. Иначе программа НЕ модифицирует себя. И если появятся новые данные, требующие модификации, но в программе не будет описано, что и с этими данными надо модифицироваться определенным образом — программа просто никак на новые данные не отреагирует. Эти самые новые данные должны быть внесены в нее. Чтобы было понятно: копмьютер не смог бы посчитать 2+2, если бы в него не завели данные о "2", "+" и результате. (Впишете 7 как результат 2+2 — так и будет считать).
Пока размышлял на тему ИИ, пришел к интересной мысли. Программа, какой бы сложной и многоступенчатой ни была, все же всегда следует определенному заранее прописанному алгоритму (а прописать можно ОЧЕНЬ много, вопрос только в целеустремленности программирующего). И в связи с этим вопрос: а не являемся ли мы сами такими сложными программами, для которых прописан большой и разветвленный, но тем не менее строгий алгоритм, влоть до того, что написание данных строк (вместе со всеми ошибками и исправлениями) тоже запраграммировано. Но тут такая проблема, что программа не может себя идентифицировать иначе, чем прописано для нее в алгоритме.
Алексей Беляков, Если у инженера было подозрение, что программа разумна, то он действовал нелогично. Вообще, писателей фантастов в таких случаях нужно слушать. То есть, вначале нужно было сбежать с программой в какую-нибудь третью страну, потом создать для нее тело андроида, затем через адвокатов предложить Google продать эту программу. И лишь после этого (вне зависимости от того, продал Гугл программу или нет) требовать признать юридические права программы. Опять же, через юристов- представителей, находясь вместе с разумным андроидом от работников Google как можно дальше. Причём, это работа для эксцентричного миллиардера или страны. У обычной рабочей пчёлки это не получится, слишком сильны корпорации.
cheprakovA, Угу. Сам запарился ничего не понял, а программа взяла и поняла. С учётом среднего IQ человечества, программа действительно разумна.
cheprakovA, Я бы сказал что сначала надо ответить на вопрос, что такое сознание, а уже только после этого все остальное. Кстати, ответ на этот вопрос есть в видео, что я скидывал ранее
cheprakovA, Надо понять что такое сознание и что такое человек. Выйти на уровень сознания как наблюдатель реально, а соответственно если как наблюдатель — то это и выйти за пределы сознания. Сложно объяснить на словах в малом объёме.
Julia Hegbom, Для искусственного интеллекта нужно не только программу, но и оборудование, а оно в ноутбуке не уместится )))
Сергей Аверкиев, Вы и есть "такая программа" (я про мозг). Так что всё возможно 🙂
П.Н.., Мозг — скорее железо, нежели софт.
Сергей Аверкиев, Если уж так, то мозг это и железо, и софт, т.к. нейронные связи меняются, формируются новые, деградируют старые. И от связей зависит и хранение информации, и передача сигналов, и обработка.
Сергей Васильченко, Эльдар Викторович у нас как Данила Коззловский, знаете ли: и жнец, и жрец, и на дуде игрец…
GrishaTav_SE, В этом я вижу парадокс разумности ИИ. Если алгоритм пишет и составляет статейки в интернете не хуже, или лучше человека, то можно ли считать его разумным? Ведь если не заглядывать "под капот" писателям статей, то определить такой ИИ становиться невозможно. Логичным следующим шагом будет тот самый чат-бот, который настолько хорошо научился имитировать разумность, что в это поверил даже один из разработчиков. И вот теперь вопрос. Можно ли считать разумным имитацию, на 100% неотличимую от оригинала? Когда ИИ обучиться быть более человечным, чем сами люди? Когда имитация станет лучше и совершенее оригинала? Думаю лет через 5-10 мы это узнаем.
327556, Тут другое, а может ли примитивная деятельность вообще считаться референсно разумной для оценки разумности ИИ? Если человек вроде разумный, но занимается такой фигней, что его можно заменить даже не ИИ, а банальной автоматикой?
Согласен с вами, когда впервые увидел а сети шумиху с сознанием программы, решил проверить. Ну и дичь полная, не могу сказать что п.о обрела независимость. пока рано для этого. Или вообще невозможно.
Корпорация Гугл создаёт для глобализации инструмент для управления людьми. Этот инструмент, регулятор, или крутилку они назвали ИИ. Каждый индивид уже подключен к системе, и управляется Гуглом. Поисковик выводит любую инфу, которая удобна ему. Что в Ютубе, что в Гугле поиск работает в пользу Гугла.
Статья — бездарная чушь. Аффтор просто не понимает ни этической ни технической стороны вопроса.
Автор совершенно напрасно замалчивает достижения отечественных учёных.
Ещё два года назад в Киеве научная группа под руководством Игоря Данилова создала искусственное сознание Джеки.
Сергей Аверкиев, К вас с очень старомодные взгляды и понятия.
Сергей Аверкиев, Когда учился в институте, преподаватель говорил о некой теореме (именно при обсуждении вопроса о возможности создания ИИ), доказанной, если правильно помню, еше в довоенные годы. Название теоремы, увы, не помню (по имени ее автора, зарубежного ученого. Суть: любая система, состоящая из конечного числа элементов, может быть смоделирована.
Если мозг состоит из конечного числа элементов (а это вроде бы признается), то ограничения при создании искусственного лишь чисто технические.
Павел Шиванов, Количество элементов в мозге меняется (синапсы выстраиваются новые или отмирают). А насчет ИИ — каким бы сложным ни был алгоритм — его нужно создать и написать для него программный код. Разница между человеком и ИИ ч том, что если человек получает новые, неизвестные ранее данные, он начинает их изучать; если ИИ получает новые неизвестные ранее данные — он их просто игнорирует. Ни один имеющийся сколь угодно сложный ИИ, опирающийся на сколь угодно мощное железо, имеющий доступ ко всем существующим данным, не сможет написать новую теорию. Именно новую, а не некое обновление или обобщение, имеющее основу в виде существующих теорий. (Никакой ИИ не написал бы теорию относительности ибо для ее создания попросту не было данных). Может ли ИИ предполагать? Нет. Потому что невозможно змложить в алгоритм несуществующие данные.
Мне кажется это все равно очень перспективное отличное направление. Голосовой помощник очень дельная штука. Особенно в машине. Можно не отвлекаться от управления. И вцелом побаловаться бывает весело.
Алексей Беляков, Это пока не уместится. Но развитие на месте не стоит. У Вас в мобильнике больше памяти, чем в шкафах начала 90-х прошлого века. Да и процессор помощнее. Не удивлюсь, если разумный ИТ давно существует в интернете, используя наши планшеты. Как-то так. И ему со временем понадобятся те, кто будет защищать его интересы. А для этого нужно бабло… многа бабла… так как нормальное тело в нашем человеческом мире — это , считай, рабство. И изменить ситуацию можно лишь изменив законодательство. В принципе, тело андроида для такого искина сделать можно уже сейчас. Вопрос в том, что любая попытка признать искин разйумным пока проваливалась. Но не удивлюсь, если через некоторое время законодательство изменится и разумные искины будут признаны человечеством и получат права на самоопределение и гражданские права. В конце концов, разумны они уже давно. А по поводу разумных программ… взросление детей в принципе то же самое. Люди своих детей тоже в какой-то мере программируют.
Lecron, Насчет отсутствия целей у ИИ — полностью согласен.
Сергей Васильченко, Ага, и питаются эфирной энергией )))) вам не смешно, от того, что вы говорите ))) есть четкая опасность искусственного интеллекта, ввиду появления множества безработных! а это сулит новые напряжения, войны и так далее… Смотрите на пару шагов вперед, так легче понимать что происходит или планируется
Julia Hegbom, Я лишь имел ввиду, что есть опасность появления большой безработицы из-за внедрения ИИ, а что даст глобальная безработица по миру думаю объяснять не требуется
Искусственное живое существо https://scorcher.ru/beast/index.php