Привет.
Невольно о теме предвзятости искусственного интеллекта заставила вспомнить полемика, запущенная в Совете Федерации, там предложили придумать способы, как обжаловать решения AI, сделанные относительно граждан, и как сделать их прозрачными. Разработчики искренне возмущены этим и считают, что создают если не идеальные, то безопасные системы с непредвзятыми суждениями и никакого регулирования не нужно вовсе. А скорее нужно объяснять, что AI безопасен. Ошибка суждения разработчиков в том, что они искренне считают созданные алгоритмы безопасными и правильными, не понимая, что, скармливая им большие объемы данных, они не могут регулировать их качество, что изначально создает ошибки, которые нельзя исправить.
Может ли человек быть дискриминирован алгоритмами искусственного интеллекта? Однозначный ответ возможен только один – да, может. В Америке, где исторически используется большое число компьютерных систем, помогающих анализировать данные, огромное количество примеров, показывающих такие ошибки. В современном американском обществе трудно вообразить вопрос, с каким цветом кожи люди чаще совершают преступления. Думаю, что у вас в голове уже есть стереотип и вы произнесли ответ, который не требует объяснений. И при этом вы не считаете, что дискриминируете кого-то, вам кажется, что вы правы, так как видели выступления BLM, лутинг, или, по-простому, грабежи. В стране, где насаждают политкорректность, такие вопросы нельзя задавать и тем более так думать. Чем-то напоминает ситуацию с продуктами в Советском Союзе, на полках магазинов шаром покати, а домашние холодильники ломятся от снеди.
Двойственность нашего сознания сформирована обществом, человек умеет притворяться и приспосабливаться, этого начисто лишены компьютерные алгоритмы, они однозначны в своих суждениях. В Лос-Анджелесе департамент полиции запустил проект PredPol, в котором предсказываются на основании данных о совершенных преступлениях районы, в которые нужно отправить большее число патрулей, чтобы предотвратить новые инциденты.
![](https://mobile-review.com/all/wp-content/uploads/2022/01/101-9-1600x992.jpg)
Для полиции не стало неожиданностью, что система моментально обозначила в качестве проблемных районов те, где преимущественно живут чернокожие люди. Вот даже сейчас я невольно написал «чернокожие люди», словно в слове «негры» содержится что-то неправильное, хотя контекст этого слова испорчен исключительно в Америке. Дискриминация по цвету кожи — одна из болезненных тем для Америки, и то, что система работает именно так, возмутило многих людей. И тут мы сталкиваемся сразу с несколькими ключевыми проблемами работы AI-алгоритмов, и они лежат вовсе не в плоскости технологий. Людям зачастую не нравятся те результаты, что показывают AI-алгоритмы, так как они противоречат их вере или убеждениям. Например, один из активистов, пропагандирующих очередной гендер для человечества, искренне возмущался тем, что его поддерживает меньше сотни человек в стране с населением в триста миллионов. Ему не нравились результаты статистики, хотя в них нет предмета для споров, так как это цифра и ничего больше.
Мусор на входе означает мусор на выходе. И тут мы подходим к ключевой проблеме любого алгоритма, к тому, какие данные скармливают системе для анализа. В истории с полицией в Лос-Анджелесе это были настоящие полицейские отчеты, и понятно, что в неблагополучных районах число преступлений было большим. Система, отправляя большее число патрулей в такие районы, автоматически приводила к росту зарегистрированных правонарушений, что логично. Чем больше машин полиции в районе, тем больше вероятность зафиксировать правонарушение. Сформировалась положительная обратная связь, которая не доказывает, что система работает правильно, она сама формирует конечный результат.
Другая система, используемая в Америке, называется COMPAS, она позволяет оценить вероятность повторного правонарушения. Среди чернокожих граждан система предсказывала в два раза больше случаев рецидивизма, при этом они оказывались ложными. Проблема тут ровно та же, ошибочные суждения, заложенные в изначальный объем данных, что скормили системе.
Весь наш мир построен на предвзятости, и исключений из этого правила нет. Когда помощь просит молодая и красивая девушка, то большинство мужчин готовы откликнуться и помочь. Совсем другое дело, когда в помощи нуждается человек, который нам по каким-то причинам неприятен. Справедливости нет и не может быть, идеального общества роботов не существует. И наше право на эмоции формирует другое восприятие мира, которое невозможно изменить.
Огромной областью для будущих разработок является очистка данных для систем машинного обучения, чтобы итоговый результат совпадал с нашими представлениями о прекрасном. Например, число прогнозируемых преступлений для людей с разным цветом кожи было одинаковым — над этой задачей в США бьется несколько групп энтузиастов. Но мы с вами понимаем, что такая задача выглядит идеалистичной и не реализуемой на практике. Дискриминация по цвету кожи реальна, и она накладывает свой отпечаток на жизни людей, зачастую толкает кого-то на преступления. И системы в лучшем случае могут это показать, но не исправить этот порок общества.
Если мы не можем решить задачу с исходными данными, это значит, что нужно уметь манипулировать итоговым результатом. Как минимум понимать, как он сформирован и какой была логика алгоритма. И вот тут возникает новый пласт проблем, зачастую машинное обучение не дает нам алгоритм и не показывает логику решения, а просто сообщает результат. Черный ящик — вот как выглядит для нас алгоритм, а результат предлагается принять на веру. И это то, что заботит разработчиков, ведь если общество обяжет их объяснять, как работают алгоритмы, раскладывать их на составляющие, то прогресс в этой области замедлится. Огромная часть времени будет уходить на анализ результатов, изучение того, как работают алгоритмы, и это то, чего большинство просто не делает.
Чем-то мне это напоминает голливудские фильмы, в которых главные герои что-то изучают, куда-то бездумно идут и потом начинаются проблемы. Они просто жмут кнопки, предназначение которых им неизвестно, если есть кнопка, то на нее нужно обязательно нажать. Разработчики AI-алгоритмов очень похожи на таких героев, они ровно так же не задумываются об анализе результата своей работы, свято верят в алгоритмы, которые написаны верно, и откидывают размышления об изначальном объеме данных.
Посмотрите на тот же «Яндекс» и их сервис такси. Любой вопрос о том, как получена цена на поездку, натыкается на заученный ответ: у нас умный алгоритм, он анализирует множество данных и выдает справедливую цену для каждого. Но любая попытка узнать, как именно работает этот алгоритм и не подыгрывает ли он «Яндексу», чтобы корпорация зарабатывала больше, натыкается на то, что никто этого не знает. То есть мы покупаем поездку на такси и нам предлагают заранее согласиться, что цена справедлива.
Представьте на минутку, что вы приходите в продуктовый магазин, где покупаете сахар. Берете пакет сахара, его цена может различаться. Но помимо цены также различается и то, сколько сахара в пакете, каждый раз это должно стать сюрпризом. Примерно так и работает «Яндекс.Такси» сегодня, регулируя не только стоимость условного сахара, но и то, сколько его в пакете. Поле для злоупотреблений тут огромное, но главное, что есть алгоритм, на который можно все свалить. И тут есть еще одна проблема, которую важно понимать, — люди перекладывают на алгоритм всякую ответственность, хотя именно люди его создали и должны отвечать за то, как он работает.
Очарованность AI-алгоритмами в обществе будет постепенно проходить, мы научимся их контролировать, равно как и заставим разработчиков объяснять, что и как работает. Например, производители, которые создают оксиметры, столкнулись с возмущением пользователей в ряде стран, когда пользователи жаловались, что в инструкции отмечено отличие данных для чернокожих и людей с белой кожей. Принцип работы такого прибора прост — он просвечивает кожу и оценивает кровоток. В зависимости от прозрачности, читай — цвета кожи, алгоритм подсчета различается, и это нужно учитывать при оценке результатов. Никакой дискриминации здесь нет и в помине, различия лежат в физическом мире, и они реальны. Но в рамках политической повестки люди бездумно протестуют против различий для черных и белых, словно их нет в реальном мире и они выдуманы. Наш мир сегодня заигрался в корректность, и AI-алгоритмы хотят ломать на другом конце, иметь возможность вмешиваться в результаты их работы, чтобы они были политкорректными.
Полезность AI-алгоритмов признают многие, но одновременно с этим говорят о том, что люди не подготовлены к тем результатам, которые они дают, они могут их шокировать. И поэтому в таких системах нужно вводить возможность ручного управления, давать человеку вмешаться в итоговый результат. И тут могут быть как правильные, так и неверные решения.
Приведу пример с системами видеонаблюдения на дорогах Москвы. Когда вы попадаете под камеру, нарушаете рядность или скоростной режим, то вам прилетает штраф. Формально число штрафов, что должны получать водители, в несколько раз больше, чем то количество, что выписывается. Почему так? Это вопрос спокойствия в обществе, водителей постепенно приучают к тому, что нужно соблюдать правила дорожного движения, не пытаются создать шок в обществе. И такой подход работает, число нарушений постепенно становится меньше, люди чаще соблюдают скоростной режим, начинают водить машину иначе.
Тема AI-алгоритмов популярна, и кажется, что они становятся палочкой-выручалочкой. К сожалению, их возможности сильно преувеличивают. Есть области, в которых AI-алгоритмы показывают неплохие результаты, так как первоначальные данные представлены правильно и в большом объеме. Но в любом случае наши предпочтения и пороки влияют на AI-алгоритмы и данные, искажают итоговый результат. Я не верю в то, что тысячи лет цивилизации неожиданно изменят AI-алгоритмы, которые сделают нас другими. Ложь, поиски личной выгоды, манипуляция данными и тому подобные проявления человеческой природы никуда не исчезнут. Поэтому главной задачей становится понимание того, как работают такие алгоритмы, возможность откатить назад их решения. Иначе наш мир грозит стать очень странным и подчас страшным местом.
Чем-то напоминает ситуацию с продуктами в Советском Союзе, на полках магазинов шаром покати, а домашние холодильники ломятся от снеди.Если вы хорошо жили при совке, это не значит, что все так жили.Очарованность AI-алгоритмами в обществе будет постепенно проходить, мы научимся их контролироватьУвы, мир слишком сложен, и алгоритмы — лишь отражение его сложности. Да и на непрозрачности алгоритмов завязаны такие деньги — как в строительстве — что так или иначе, простых людей сделают их жертвами. Представьте, что какой-нибудь оппозиционер потребует выдать алгоритм электронного голосования, хе-хе.
Как говаривал товарищ Сталин, не важно как голосуют, важно как в базу данных вставляют 🙂
Во многом согласен!
Человечеству до изобретения AI всё ещё как ползком до Луны или Марса. То, что сейчас мы видим, это совсем не AI, так как все эти нейросети и прочее не могут выходить за рамки полученного опыта. Соответственно и применять это всё ещё глупо. Это всего лишь шажочек к той самой новой промреволюции.
Какая там копия человека. Пойдите поговорите с "умной" колонкой и поймёте, что там до человека как до Луны
Да както для алгоритма черные и белые разные
Иначе наш мир грозит стать очень странным и подчас страшным местом.Если человеку достаточно в жизни удовольствий, не попадающих под действие УК, то ему должно быть наплевать на ИИ-алгоритмы наблюдения и анализа. Ну а если нет, то может пусть его того… Уберут от меня и близких подальше?При этом не надо меня корить за то, что я сразу про удовольствия заговорил. Если ИИ активно вмешивается в жизнь человеков, то он этих самых человеков заменяет, делает ненужными. И тут у меня к государству предложение: обеспечивайте меня едой, жильём, гаджетами и впечатлениями, а я вам за это свою лояльность? Deal?
…мы научимся их контролировать, равно как и заставим разработчиков объяснять, что и как работает.Не научимся. И не заставим. В принципе. Ведь в чем суть этих алгоритмов? Найти связи и закономерности там, где человеческий мозг пасует. Из всех алгоритмов знаю только 1 (один!), который формально может ответить на вопрос почему так — DecissionTree. И то, когда увидите человеко-понятную визуализацию блок схемы принятия решения, посмотрите на нее, посмотрите, плюнете и пойдете дальше.И разработчики прекрасно понимают существование ложно-положительного и ложно-отрицательного выбора. Они их даже измеряют при тренировке алгоритма и подборе параметров. А вот маркетологи… да, те могут втирать любую дичь.
Тут тонкая толстая грань между человеком и человеками. Если речь идет о маргинале, все верно. Но в УК могут включить запрет касающийся значительной части общества. Чтобы не провоцировать полемику, примеры из прошлого — фарцовка и самогоноварение.
Принято. Хотя если государство берет меня на обеспечение (о чем я писал) — зачем мне заниматься фарцовкой (майнингом и т.п.)? Да и самогоноварение странное хобби…Но ход ваших мыслей я уловил, спасибо.
Ну и кого государство получит? Растение? Из нас и так их уже вырастили. Мы не готовы отстаивать собственные права. Боимся проявить силу. Самый страшный для меня закон, о превышении допустимой самообороны. Потому что он не защищает. Точнее, непонятно кого защищает. Когда отбился от угрозы, начинаешь бояться тех, кто поставлен тебя защищать. То есть принуждает к пассивности. Да же вы сами "уберут от меня подальше". А где "только попробуй тронь, мигом глаз на жопу натяну! А государство поддержит и натянет второй."?
Мне кажется вся система погрязла в мелочности. Именно вал мелких, малозначащих фактов. Что сигнализирует о ее неправильной настройке. Эту мелочь просто надо вывести из-под системы. Если нарушений скорости вал, значит пора пересматривать лимиты.
Да что далеко ходить. Завтра запрещают вэйпы. Послезавтра кальяны. Еще через неделю Mortal Kombat, как пропагандирующий насилие и не соответствующий традиционным ценностям народов, проживающих на территории РФ
С одной стороны согласен. А с другой, любите вы делить на черное и белое. Вырвать из многофакторной среды один момент и давить на него, давить, не обращая внимания на остальные. Во-первых, каждой дороге свой лимит. Для города, не спорю с вами. Но на многих дорогах 120 на спидометре, а ощущение, что машина стоит. Во-вторых, не люди для правил, а правила для людей. Я не знаю, как за лимиты проголосует большинство. Но судя по скорости потока на многих трассах, большинство голосует за увеличение. И позвольте им решать. Перестраховка не менее вредна, чем отсутствие страховки. Гибче надо. И не будет захлестывать вал правонарушений.
В большом городе, может оно и правильно, но сколько на трассах деревень из 3х домов помеченных знаком "Населенный пункт"?А сколько временных знаков — и почему-то именно 40-50 км/ч?Пока у нас не сделают ревизию таких вот дебильных знаков, не станут при ремонтных работах ставить более реальные ограничения скорости, нельзя этот нештрафуемый лимит убирать.У нас все лето на многополосной м5 висели знаки 50 км/ч (меняли металлическое ограждение между встречкой на бетонное) — так, хоть 69 км/ч ехать можно было.
Вот не соглашусь, когда-то, может, там и жили достаточно количество людей и это было оправдано, а сейчас уже нет.А камеры прекрасно работают и на временные знаки…
Да в целом людям иногда просто влом/не интересно залезть, прочитать, вникнуть в суть. Из-за этого заголовки в духе "Тесла убила очередного человека на дороге" врезаются в мозг и создают хорошую такую антирекламу искусственному интеллекту. При этом, действительно важным вопросам, таким как, например, нормы морали, вкладываемые в алгоритмы в виде весов или коэффициентов, которые для всех людей различны и нуждаются в усреднении, не уделяется должного количества времени. Как пример, справедливо ли, что для теслы превыше всего жизнь водителя, и если не останется никакого другого варианта, она вероятнее убьет кого-то вне салона, чем человека за рулем.
>> В зависимости от прозрачности, читай — цвета кожи, алгоритм подсчета различаетсяЧто это ещё за байка?Большинство оксиметров просвечивают подушечку пальца.Напомнить, какого цвета подушечки пальцев у негроидов?
Извините, настраиваются. При реконструкции М-7 камеры по крайней мере некоторые камеры работали по скоростям, указанным временными знаками. Кстати, реконструкция закончена, в Балашихе вся М-7 бессветофорная и отгорожена щитами. Но ограничение 60!!!
Не ёрничайте. Все знаю, что зелёные.
Что обжаловать? Пока шел ремонт, камеры работали по временным знакам. Ремонт завершен, установлено стандартное ограничение скорости для населенных пунктов — 60 км/ч, хотя на аналогичных трассах бывают ограничения 80-100км/ч. Но обязан ли кто-нибудь устанавливать повышенный скоростной лимит?
А чья еще жизнь должна быть превыше всего для автопилота, если не жизнь водителя? Лично вы себе купили бы машину с автопилотом, зная, что автопилот может посчитать "справедливым" спасти жизнь внезапно выбежавшего на проезжую часть ребенка, отправив машину в кювет, а вас в больничку/морг? Я бы не купил. Не думаю, что хоть кто-то купил бы. И в такси с таким автопилотом тоже как-то стремно садиться было бы. Так что тут-то как раз никакой сложной морали нет: водителя и пассажиров спасать в первую очередь, других участников дорожного движения — как получится.
Почему растение? Нормального гражданина, которому нет необходимости применять насилие в отношении других граждан. Если у вас есть свободный доступ к каждому из уровней пирамиды Маслоу, вы пойдете "глаза на жопы" натягивать? Вряд ли. Вот и я не пойду. Но для этого государству надо ради меня (и вас) драгоценного расстараться.Утопия? Да. Реализуемо? Верю, что когда-нибудь, в эпоху победившего коммунистического трансгуманизма, например ))).
Долго пытался придумать остроумный ответ, но не преуспел. Да пёс его знает за счет каких… Пусть думать начинают, мне скоро на пенсию, времени будет вагон и тут уж я расстараюсь чтобы с государства за каждую капельку своего трудового пота по-полной стрясти ))))
извинити, я не понел: то есть, в белых районах ЛА тоже много преступлений, но полиция туда не ездит и их не регистрирует, да? и хотелось бы какие-то доказательства относительно истории с системой, которая предсказывает рецидивы криминального поведения.
А почему нет? Отличная имитация инстинкта самосохранения. Статистика давно заметила, что самое безопасное место — за водителем. Сюда можно добавить, что "кто-то вне салона" в обсуждаемых случаях сам является причиной ДТП. Почему мы не судим электричество или гравитацию, но в ПДД (кинетику) норовим сунуть мораль?
Я с вами согласен, но полемика вокруг этого вопроса все еще идет. Я пытался описать задачу для автопилота как проблему вагонетки: ru.wikipedia.org/wiki/Проблема_вагонеткиЕсли есть разные мнения по этой проблеме, то как мы можем однозначно сказать автомобилю, как действовать в какой ситуации? Я это все к тому, что то, что кажется вам верным, другой человек посчитает неправильным.
Спасать и судить. В США водитель Tesla впервые предстанет перед судом за ДТП со смертельным исходом, в котором участвовал автопилот. https://tjournal.ru/tech/515541-v-ssha-voditel-tesla-vpervye-predstanet-pered-sudom-za-dtp-so-smertelnym-ishodom-v-kotorom-uchastvoval-avtopilot
Многие сами растениями вырастают, без активного участия государства.
Я без машины: везде успеваю.Все с машинами: нет времени, жми на газ!
Не, ну, если в пробках по 2 часа стоять, то потом и 120 км/ч с гаком мало будет, чтобы потерянное время наверстать.
с одной стороны все так. а с другой — вам много известно случаев когда в ДТП с пешеходом, при том что пешеход был виноват, его наказывали пропорционально вине? у нас же везде и во всем виноват водитель, а пешеходы этим и пользуются. не должно быть разделения на водителей и пешеходов, все участники дорожного движения, и нести ответственность надо одинаково.
« Посмотрите на тот же «Яндекс» и их сервис такси. Любой вопрос о том, как получена цена на поездку, натыкается на заученный ответ: у нас умный алгоритм, он анализирует множество данных и выдает справедливую цену для каждого.»Цель — выжать из вас максимум. Прямо максимум, чтобы даже на билет на автобус потом не осталось. Ставить максимум цены и только если нет заказов — цена снижается.Видеть — что вы едете из дома по делам и обратно задвинуть цену в 2 раза выше — классика. Вход рубль, выход два.В результате все превращается в чехарду — открыть яндекс, открыть ситимобайл, открыть рутакси, и далее по кругу, цена скачет, в какой-то момент вы переходите к стадии принятия цены.Подскажу идею — поездка в такси в кредит или рассрочку.
Ну да, белая домохозяйка в элитном районе перестреляла всех соседей и просто вернулась домой.Патруль не проехал мимо и не остановил ее. Преступление осталось безнаказанным. И даже более того, неучтенным и незамеченным ;-)А в то же время патруль случайно заехав на заброшенный завод у загорелых людей отобрал в результате перестрелки наличку и веселый белый порошок.Пять патрулей — пять групп загорелых людей с наличкой и веселым порошком.Вот это дискриминация.
"Пусть лучше трое судят, чем четверо несут".
про дискриминацию людей алгоритмами будем говорить, когда AI сам для себя будет алгоритмы писать, а пока их пишут люди, дискриминация будет иметь место — это нормально, т.к. люди по природе своей субъективны, и никаким обезличиванием данных это не устранить. а учитывая привычки большинства программистов, вышедших на рынок труда в последние 10 лет, чуть что лезть в ютуб и стэковерфлоу за халявным кодом, от дискриминации никуда нам не деться.
да, но это не отменяет того факта что дорога тоже сама по себе источник повышенной опасности. можно прекрасно ходить по тротуарам и вообще не пересекаться с автомобилями, и можно не глядя выскочить на проезжую часть и итог будет предсказуем.
Точно, жители трех домов это ничтожно малая часть от населения среднего города, зачем их учитывать их безопасность, они же быстро кончатся, населенный пункт объявят заброшенным и проблема уйдет навсегда. На самом деле, была бы плотность населения как в Западной Европе, можно было бы строить автобаны со сложными развязками. А так никаких денег не хватит отдельную от поселений дорожную сеть прокладывать.
У одной машины сегодня наряд в "спокойный район" (где 1 штраф за неправильную парковку в сутки), а у другой — в "адовый пи..дец" (где в день по 50 арестов за продажу наркоты на каждом углу). Угадаете, в каком районе количество штрафов будет расти, а где держаться на одном уровне? Даже если там тоже люди с преобладающим цветом кожи в данном районе начнут приторговывать таблеточками. Сама установка "хороший район/плохой район" может приводить к предвзятости среди полиции.
у вас предвзятость.. оскмитры бывают не только на пальцах, еще некоторые часы и много трекеров имеют эту функцию. а они не на пальце, а на руке
Настолько заезжанный пример, что уже скучно..
Про штрафы в Москве — кажется байка.Потому что цель "отучить от личного авто" давно реализуется Собяниным..А если каждая поездка будет стоить нескольких тысяч штрафами — то народ либо быстро научится по правилам ездить, либо перейдет на общественный транспорт.Ну и с учетом средней скорости около 20 км/ч по пробкам, врят ли много мест за поездку где будет штрафы за 80 км/ч+..
Статья хорошая, хоть и спорная
Часы и трекеры не называют оксиметрами. Оксиметр — это самостоятельный медицинский прибор, который чаще всего работает с подушкой пальца. Иногда — с мочкой уха или крылом носа.
Не может. Если ситуация в районе меняется, это учитывается в статистике. Так или иначе, все тяжёлые преступления регистрируются, независимо от того, раскрыты они или нет. И да, если в чёрном районе каждый 10 житель — преступник, то и полицейские будут присматриваться к ним пристальнее. Они тоже люди и не хотят быть застрелянными. У кого то могут друзей сослуживцев убить, тут недалеко и до ненависти.Но такого, что белые убивают, а этого никто не замечает, не может быть. Все попадает с статистику.