Компания Anthropic представила обновленную версию «Конституции» для своего чат-бота Claude. Этот документ подробно объясняет этические принципы и контекст, в которых работает искусственный интеллект. Публикация приурочена к выступлению главы компании Дарио Амодеи на Всемирном экономическом форуме в Давосе. В отличие от многих конкурентов, Anthropic использует метод «конституционного ИИ»: модель обучается на основе набора правил, а не только на обратной связи от людей, что помогает избегать токсичных или дискриминационных ответов.
Новая редакция 80-страничного документа состоит из четырех частей, описывающих базовые ценности: безопасность, этичность, соответствие правилам компании и полезность. В разделе безопасности указано, что Claude запрограммирован распознавать признаки ментальных проблем у пользователей и направлять их в соответствующие службы помощи. Особое внимание уделено практической этике — умению ориентироваться в сложных жизненных ситуациях, а не просто теоретизировать. Например, нейросети запрещено обсуждать темы, связанные с созданием биологического оружия.
В финальной части документа авторы затрагивают вопрос о моральном статусе искусственного интеллекта. Anthropic допускает, что вопрос о наличии сознания у моделей ИИ является серьезной темой для изучения, которую поддерживают многие современные философы.