Примечание редакции Mobile-review.com. Мы подбираем материалы в раздел «Мнение», чтобы показать то, как воспринимают рынок компании в других странах. Мнения в таких материалах зачастую не совпадают со взглядами нашей редакции, но дают понимание рынка, его медийной составляющей.
По материалам Phonearena
Искусственный интеллект — без сомнения, фраза года и самое модное явление. Мы постоянно слышим эту аббревиатуру, и иногда она используется самым нелепым образом: ИИ-мыши, ИИ-зубные щетки, ИИ-алгоритмы подбора парфюмерии и даже обувь, оснащенная ИИ.
Здесь же речь пойдет о месте ИИ в современных смартфонах. Но для начала – что вообще такое искусственный интеллект?
Искусственный интеллект (ИИ) — это область информатики, связанная с созданием систем, способных выполнять задачи, которые обычно требуют участия людей, таких как рассуждение, обучение, решение проблем, восприятие, понимание языка и многое другое. Системы искусственного интеллекта используют алгоритмы и данные для имитации разумного поведения.
Ключевое слово здесь — «имитация». Системы искусственного интеллекта не могут «понимать» данные, а их логика и рассуждения основаны на алгоритмах.
Представьте, что вы находитесь в комнате. На одной из стен есть две щели и одна щель на противоположной стене, над ней мигают красная и зеленая лампочки. Каждую минуту из первых двух щелей выходит два листа бумаги с китайскими иероглифами.
Вы не знаете китайского языка и понятия не имеете, что это значит. Вы берете один из листов и помещаете его в щель с лампочками. Загорается зеленый свет. Вы сделали что-то правильно. Если загорится красный свет, вы запомните форму иероглифа и в следующий раз, когда увидите, что он выходит из первых двух щелей, не станете совать этот лист во вторую.
Это очень упрощенный пример того, как работают алгоритмы ИИ. У них нет знаний или понимания информации, которую они обрабатывают, но они очень хорошо умеют распознавать закономерности и повторять или моделировать их.
Системы искусственного интеллекта также не имеют «желаний» или «мотивации» за пределами предопределенных алгоритмов. Они ничего не могут сделать по своей воле, потому что для этого потребуется сознание. Ведутся серьезные споры о том, сможем ли мы когда-нибудь создать сознательные системы (биологические или машины), но сейчас речь не об этом. Поговорим о том, в чем хорош нынешний искусственный интеллект.
Примеры систем на основе ИИ
Как уже говорилось, ИИ хорошо распознает закономерности. Он может обрабатывать огромные наборы данных, например, медицинскую информацию в виде снимков и результатов анализов, и распознавать возможные заболевания. ИИ может распознавать закономерности в финансовой сфере и помогать вам торговать, выявлять мошенничества и оценивать риски.
Но, возможно, самой интересной и популярной функцией ИИ в наши дни является его способность распознавать и понимать естественный человеческий язык. Отсюда и появление больших языковых моделей, чат-ботов и других помощников на основе искусственного интеллекта.
Некоторые могут возразить, что перевод и расшифровка в режиме реального времени были доступны задолго до появления искусственного интеллекта, но теперь, когда эти системы стали способны понимать контекст, конечный результат намного лучше. Вы также можете использовать ИИ для пересказа текста или заставить писать или рисовать за вас, а это уже создание контента.
Распознавание лиц теперь стало намного точнее благодаря ИИ, к добру или нет, и ИИ может легко находить закономерности и предлагать контекстную информацию, адаптированную к конкретным потребностям человека.
Навигационные системы теперь также используют искусственный интеллект, и они стали лучше, чем когда-либо. К ним также относятся системы беспилотного вождения, которые используют компьютерное зрение для распознавания объектов. Компьютерное зрение — это механизм, лежащий в основе Circle to Search и других систем поиска изображений. ИИ способен понимать изображения и интерпретировать их.
Итак, искусственный интеллект окружает нас повсюду и в ближайшее время никуда не денется. Давайте посмотрим, что нам доступно в наших смартфонах.
ИИ в смартфонах
Каждая компания-производитель смартфонов, крупная или не очень, стремится поучаствовать в гонке искусственного интеллекта. Google, например, представила такие функции на базе искусственного интеллекта, как Magic Editor для заполнения фона и редактирования объектов, а также Best Take, который объединяет несколько изображений для создания лучшего варианта группового фото. У Samsung есть собственный Object Eraser, предназначенный для удаления объектов с фотографий, а также некоторые умные функции Galaxy AI, такие как перевод в реальном времени во время звонков, предложения по редактированию фотографий и создание сводок как в «Заметках», так и во время просмотра.
OnePlus представила AI Summarizer для кратких выжимок телефонных звонков, а у Honor есть собственная система Magic Portal, которая может извлекать текст и изображения и отправлять их в приложения и сервисы.
Еще одна горячая тема, о которой постоянно говорят производители смартфонов, — «ИИ на устройстве». О другом типе, облачном ИИ, похоже, больше молчат, и для этого есть веская причина. Давайте разбираться.
ИИ на устройстве
Искусственный интеллект на устройстве – термин, объясняющий сам себя и означающий, что система работает на смартфоне. Она может использовать выделенный процессор или часть основного процессора, но важно то, что такой системе теоретически не требуется подключение к Интернету для работы, поскольку все вычисления выполняются на самом смартфоне.
Например, чип Google Tensor имеет специальный EdgeTPU (тензорный процессор) для ускорения выполнения задач ИИ, а Qualcomm включила новый AI Engine для поддержки до 10 миллиардов параметров генеративных моделей ИИ — исключительно на устройстве – в чипсет Snapdragon 8 Gen 3.
Модель искусственного интеллекта на устройстве имеет множество преимуществ, и это одна из причин, по которой многие компании громко о ней заявляют (хотя в большинстве случаев их системы являются гибридными, но об этом чуть позже).
Преимущества ИИ на устройстве:
Меньшая задержка: запрос обрабатывается немедленно, поскольку данные не нужно отправлять на сервер и обратно, что ускоряет получение ответа.
Конфиденциальность: данные остаются на устройстве, что снижает риск утечки данных и обеспечивает лучшую конфиденциальность пользователям.
Автономная функциональность: система может работать без подключения к Интернету, что делает ее полезной в удаленном или нестабильном сетевом окружении.
Пропускная способность: снижает потребность в постоянной передаче данных, экономя на использовании данных и снижая нагрузку на сеть.
Недостатки:
Ограничения со стороны аппаратных возможностей устройства, таких как вычислительная мощность, оперативная и встроенная память.
Управление обновлениями. Усложняется развертывание обновлений моделей и алгоритмов на множество устройств.
Масштабируемость: масштабировать сложнее, поскольку каждое устройство должно самостоятельно производить вычисления.
Искусственный интеллект на устройстве — это святая святых безопасности и самодостаточного опыта работы с искусственным интеллектом, поскольку никакая информация (теоретически) не отправляется в облако. Однако какими бы мощными ни были наши смартфоны, они просто не способны конкурировать с отдельным дата-центром с сотнями процессоров, выполняющих задачи искусственного интеллекта.
Облачный ИИ
Облачные системы искусственного интеллекта запускают модели ИИ и обрабатывают данные на удаленных серверах, размещенных в дата-центрах. Ваш смартфон должен быть подключен к Интернету, чтобы обмениваться запросами с этими дата-центрами, и в большинстве случаев через Интернет передаются не только запросы, но и некоторые пользовательские данные для выполнения поставленной задачи.
Облачный ИИ является очень мощным, поскольку он использует огромную вычислительную мощность дата-центров, специально разработанных для работы с ИИ. Однако у таких систем есть недостатки и проблемы с безопасностью.
Преимущества облачного ИИ:
Доступность ресурсов. Доступ к практически неограниченным вычислительным ресурсам, позволяющий использовать более сложные и крупные модели.
Масштабируемость. Легче масштабировать вычислительную мощность и хранилище по мере необходимости, не ориентируясь на возможности отдельных устройств.
Управление. Легче управлять, обновлять и обслуживать модели и алгоритмы централизованно.
Агрегация данных. Облегчает сбор и обработку больших наборов данных из нескольких источников.
Недостатки:
Возможны задержки из-за передачи данных в облако и из облака.
Проблемы конфиденциальности. Данные необходимо передавать на внешние серверы, что вызывает беспокойство по поводу безопасности и конфиденциальности данных.
Зависимость от интернет-соединения. Требуется стабильное подключение к Интернету, что может быть ограничением в определенных ситуациях.
Стоимость. Может означать более высокие расходы из-за оплаты передачи данных и использования места в облаке.
Понятно, почему компании не так много говорят об облачном ИИ, особенно сейчас, когда люди очень чувствительны к использованию своих личных данных. Еще одна потенциальная проблема заключается в том, что такие системы наверняка перейдут на модели подписки после первых нескольких лет хайпа.
Гибридный ИИ
На самом деле большинство компаний-производителей смартфонов используют гибридную модель искусственного интеллекта, то есть некоторые функции доступны на вашем смартфоне, а некоторые используют удаленный дата-центр. Ряд функций искусственного интеллекта также зависят от подключения к Интернету, например Circle to Search. Без интернет-соединения вы вообще ничего не сможете найти.
Самое неприятное то, что эти гибридные модели имеют тенденцию подключаться к облаку даже при использовании встроенного чипсета, а когда вы отключаетесь от интернета, некоторые предположительно встроенные функции перестают работать.
Например, Galaxy AI использует искусственный интеллект на устройстве для подсказок по фотогалерее, но подключается к облаку для генеративной обработки фотографий. Он использует оба метода для расшифровки речи в текст и перевода в реальном времени.
Понять, что и как, помогает таблица, размещенная на сайте компании:
Приложение Samsung | ИИ-функция | Обработка по умолчанию | Обработка с включённой политикой безопасности |
Телефон | Текстовый звонок Синхронный перевод | На устройстве На устройстве | На устройстве На устройстве |
Переводчик | Перевод | На устройстве | На устройстве |
Клавиатура Samsung | Подсказки в чатах1 Перевод Тон письма Правописание | На устройстве На устройстве Гибридный2 Гибридный2 | На устройстве На устройстве На устройстве3 На устройстве3 |
Заметки | Правописание Резюме Автоформат Перевод | Облачный Облачный Облачный На устройстве | Недоступно Недоступно Недоступно На устройстве |
Диктофон | Распознавание речи Резюме Перевод | На устройстве Облачный На устройстве | На устройстве Недоступно На устройстве |
Обои | Генерация обоев Таймлапс и погода | Облачный На устройстве | Облачный На устройстве |
Редактор изображений | Генеративное редактирование | Облачный | Недоступно |
Галерея | Умное редактирование Instant Slow-mo | На устройстве На устройстве | На устройстве На устройстве |
Samsung Internet | Резюме Перевод | Облачный На устройстве | Недоступно На устройстве |
1 Доступно в мессенджерах типа Samsung Messages или WhatsApp.
2 Английский и корейский обрабатываются на устройстве. Все прочие языки обрабатываются в облаке.
3 Доступно только для английского и корейского языков.
Некоторые компании также довольно расплывчато говорят о том, какие функции выполняются на устройстве, а какие требуют доступа в Интернет, так что нам могут потребоваться новые правила, чтобы пользователей не вводили в заблуждение.
Заключение
Искусственный интеллект с нами надолго, без вариантов. И прежде всего он облегчит нам жизнь. Некоторые люди сравнивают ИИ-революцию с индустриализацией или интернет-революцией, и, возможно, они на правильном пути с подобными аллегориями.
Однако есть не столь очевидная проблема — то, как мы используем такие системы, а не только конфиденциальность и безопасность. Наша зависимость от ИИ может привести к тому, что некоторые наши навыки устареют и со временем могут быть потеряны. Нам не нужно будет учить иностранные языки, учиться пользоваться картой, пересказывать прочитанное и редактировать изображения. А к чему это приведет, предсказать пока сложно.
Вряд ли уже ИИ человека сильно испортит — он оболванился еще когда на аудиокниги перешел и мессаджи вместо писем.
Мы все стали жертвой маркетинга, то что сейчас маркетологи всех мастей называют "ИИ" — это не ИИ. Реальный ИИ сейчас стыдливо называют "Искусственное Осознание". Остальным надо почитать Е.Лукина "С нами бот", 2009 г. Простой советский/перестроечный писатель в 2009 году понимал в современном ИИ больше, чем все маркетологи вместе взятые.
Никого уже не заставишь отказаться от дурацкого и неправильного термина ИИ и заменить его на более правильный "программная поддержка вспомогательного функционала". Безграмотность, как обычно, победила. Но прежде чем говорить о любых компьютерных технологиях, надо очень хорошо представлять, что такое на самом деле компьютер, что он может, а чего не может. С этим у очень большого количества людей совсем плохо. Напомню, что такие компьютер. Электронно-вычислительная машина потребляет электричество и производит вычисления. 99% потреблённой энергии ЭВМ выделяет в виде тепла, 1% — это результат вычислений, упорядоченная информация. ЭВМ состоит из арифметико-логического устройства (АЛУ) и ячеек памяти, организованных тем или иным образом в массивы. АЛУ умеет выполнять, по сути, всего две операции: сложение и сдвиг двоичного числа на один разряд.Таким образом, ЭВМ — это электрическая машина с КПД 1%, умеющая складывать два двоичных числа и сдвигать двоичное число на один разряд вправо или влево. Все результаты вычислений ЭВМ получает многократным повторением этих двух операций.Такой простой машины вполне достаточно, чтобы реализовать любые вычислительные алгоритмы. Основные недостатки всех ЭВМ – очень низкий КПД и невозможность масштабирования. То есть нет возможности повысить КПД ЭВМ, просто построив большую ЭВМ, как, например, это возможно с грузовыми автомобилями – большой грузовик тратит меньше топлива на перевозку килограмма груза, чем маленький. Все так называемые «суперкомпьютеры» — это тысячи обычных ЭВМ, соединённых проводами. КПД у такой системы меньше, чем у одной ЭВМ.Ввиду наличия этих ограничений ЭВМ развиваются в сторону уменьшения общего потребления электроэнергии, сохраняя низкий КПД. Уменьшая размер транзистора до пяти нанометров, уменьшается общее потребление электроэнергии. Но этот путь не бесконечен. Сделать транзистор меньше атома нельзя.Теперь всем должно стать понятно в каком жесточайшем кризисе находится компьютерная индустрия. КПД компьютеров не растет. Растёт мнимая мощность вычислений, обусловленная снижением общего потребления энергии и размеров. При достижении минимально возможного размера транзистора этот рост остановится, и компьютерную индустрию ждут тяжёлые времена. Нужно совершенно четко понимать, что, кроме АЛУ, человечество пока ничего не придумало и нет на самом деле никаких других вычислительных машин, пригодных для применения. Квантовые компьютеры, нейронные компьютеры и прочие – это просто способы выпрашивания денег у инвесторов, как частных, так и государственных, при помощи сказки о том, что квантовый компьютер мгновенно взломает все коды и пароли. Вы заметили как, последние пару лет потускнели восторги по поводу квантовых компьютеров. И как эти же пару лет нам активно продают ИИ? Завтра ещё что-нибудь придумают. И так по кругу. Пока основная проблема компьютеров не будет решена, а именно — пока не станет возможным строить большой компьютер, а не соединять проволокой тысячи маленьких ни о каком ИИ или Искусственном Осознании речи нет. А между тем, направление развития математической модели, которую представили в 1943 году Маккалок и Питтс, очень перспективно при наличии "больших" компьютеров. Модель обучаема. Это значит, что можно подать на вход данные, например изображение, и при помощи человека настроить вычислительные единицы так, чтобы они выдавали правильный результат. Возможность обучения модели – это очень важно! При помощи обучения можно «перенести» в ЭВМ часть, пусть и очень маленькую, человеческого знания. Теоретически, если построить и обучить очень большую модель, то она будет способна «впитать» в себя бОльшую часть человеческого знания. Совсем теоретически, очень, очень большая модель способна впитать в себя всё знание человека. Этим и живут «фантасты», которые рассказывают про искусственный интеллект. Но, к сожалению, у нас пока нет таких мощных вычислительных машин. Помните, КПД компьютеров мало и, как сделать большой компьютер, мы пока не знаем. Так-то…
Мне кажется, что пик ИИ-хайпа уже пройден. Тем более, что ИИ оказался никаким не ИИ, а скорее продвинутыми алгоритмами. По инерции, конечно, еще долго будут лепить этот ИИ куда попало. А на главные вопросы пока нет ответа: А зачем обычным пользователям этот ИИ и какие реальные сценарии его использования, что его так насильно суют в центр внимания? Ну вот, чтоб это было позарез нужно несколько раз в день и так каждый день? Даже на ноутбуках сделали отдельную кнопку для запуска. Нафига?ИМХО, это не более чем игрушка, которую будут использовать время от времени фотки подшаманить и какую-нибудь ерунду спросить пару раз в неделю. Больше этот хваленый ИИ в бытовой жизни нихрена не умеет. Причем разработчики осознанно не дают ему никаких прав на уровне системы в той же Виндоуз, ибо этот ИИ-дурень в любой момент начнет галлюцинировать и натворит пакостей, как малолетний ребенок. ИИ даже считать еще не умеет. Просишь его, например, нарисовать рыбу с двумя ногами — рисует четыре ноги. Уточняешь, что нужно две ноги. Он говорит "Ок, извините, сейчас исправлю…" — и снова рисует четыре. Как бестолковый идиот.П.С. Есть сценарии, в которых даже существующие ИИ очень полезны, но они очень нишевые. Для 99% людей это бесполезная игрушка, значимость которой очень сильно сейчас преувеличена. Уровня "поигрался пару дней и забросил".
Владимир Репин, 1. Мы уже эту тему обсуждали. Неизвестно, сколько должна одна операция потреблять энергии. А без этого, любое обсуждение КПД теряет смысл. Вы можете быть как правы, так и катастрофически ошибаться. Причем в любую сторону. Может сейчас КПД 10%. А может всего 0.01%.2. Нейронные, точнее нейроморфные компьютеры не сказка. Знаю людей, которые с ними работают. Но по их словам, время еще не пришло. Для простых задач у компьютеры общего назначения справляются, а для сложных… сильно часто меняется программная и даже алгоритмическая часть.3. Согласен, обучение нынешних моделей почти достигло лимита. Но это лишь значит, что надо переходить на другую архитектуру нейросетей. Точнее не самих сетей, которые изучают связи, а кодирования этих связей.
BenderUnit, Не знаю, зачем обычным, а вот в программировании, надеюсь, подвижки будут. Ибо согласен, пока это только игрушки. Например:1. Усовершенствование TDD методики разработки. Программист пишет тесты как сейчас, но дополняет их словесным описанием назначения функции. ИИ не просто пишет функцию по описанию, но сразу ее тестирует и если что дорабатывает. Исключаем галюцинирование и не просто пишем функции с ИИ, а разрабатываем сразу весь модуль.2. Умная транспиляция. Очень часто прототип проще написать на динамическом языке. Там исследовательской работы больше, чем собственно кодирования. Но когда написал, уже лень переписывать, оно ведь уже работает. Или например переписать уже существующую библиотеку на другой язык, с учетом его best practice. Буквально на днях, столкнулся, что лучшая (для меня) библиотека для токенизации текста — razdel на Питон. А на rust даже близко похожего нет. Но не буду же я несколько тысяч строк переписывать.Возможно что и для других ниш или обываетеля, следующий шажок развития превратит из игрушки в практичную вещь.
Lecron, 1. Этот верно. Абсолютно. Поэтому такого параметра, как производительность компьютеров не существует. Но это не значит, что не нужно учится строить большие компьютеры. 2 К сожалению сказка. Да есть люди, которым платят деньги за работу в этом направлении. Но компьютеров, повторяющих работу мозга не существует. 3. Я не очень понял. Мне кажется, что лимит как раз связан с вычислительной мощностью. Но, возможно, вы правы.
Владимир Репин, 2. Дело не в повторении работы мозга, а других принципов вычислений. Таки на архитектуре фон Неймана свет клином не сошелся.3. Уже не раз писал. Нужно кодирование сущностей не эмбедингами, а графами связей. Чтобы сеть оперировала не буквенными токенами, а их смыслами. Тогда дообучение сети будет больше похоже на принципы обучения человека. Ведь мы узнавая новую информацию, не пересчитываем всю имеющуюся, а дополняем ее, надстраивая этот граф связей.
Я пользу от ии вижу пока только для производителей, которые таким образом пытаются стимулировать продажи и поднимать цены.
системы принятия решений на основе недетерминированных (их еще называют — стохастические, вероятностные) алгоритмов называются экспертными системами, и к искусственному интеллекту отношения не имеют. экспертные системы позволяют имитировать принятие решений на основе качественных показателей, а не количественных, путем построения системы правил, где каждое правило сопоставляет набор входных условий некоторому результату. экспертная система может имитировать принятие решений даже в реальном времени — все упирается в быстродействие железа, на котором эта ЭС функционирует, и в степень охвата предметной области системой правил. то, что маркетологи называют сегодня ИИ, по факту в 99% случаев является именно ЭС.полноценный ИИ базируется на нейросетях, где каждая нейросеть умеет решать некую узкоспециализированную задачу без участия системы правил. с нейросетями все хорошо, кроме одного — современную нейросеть нельзя ДОобучить "новым трюкам", как человека, а можно только ПЕРЕобучить. соотв. ждем, пока разрабы додумаются выстроить ИИ, как именно систему из различных нейросеток, часть из которых будет заниматься классификацией задач, а другая часть — их решением.
Филипп Мастяев, Интересный подход. Не встречал. Возможно стоит разделить на два этапа. Инференс, это именно экспертная система. А вот обучение, построение системы правил этой системы, уже нечто выше.Недетерминированные системы склонны к ошибкам. Как они будут нарастать в системе сеток? Скорее надо перестать мыслить экстенсивно и посмотреть на развитие машинного обучения, историю появления новых алгоритмов. Всего 10 лет назад появился word2vec, анализирующий контекст без учета последовательности. То есть не учитывающий существование у слова разных смыслов. 5 лет назад появился BERT (трансформер) учитывающий последовательность и существование разных смыслов у слова. Но вектор смыслов не константный, а скорее поля, часто пересекающиеся. Что дальше? Анализ связей смыслов с константным выражением каждого? А это уже шаг именно к ДОобучению.
Lecron, ну так и люди склонны к ошибкам. просто человека можно и ДО-обучить, и ПЕРЕ-обучить, а сетки пока только ПЕРЕ-обучаются. я могу ошибаться, но неспособность ДО-обучения нейросетей проистекает из подхода к их построению. нейросеть НЕ МОЖЕТ дообучаться, а не НЕ ХОЧЕТ.
Филипп Мастяев, Я говорил не про ошибки, а про накапливание ошибок. Лучший пример — игра "испорченный телефон". Именно это будет при работе системы сеток.Ну да. Именно это я и говорил. Дообучение сетки означает коррекцию всей области "знаний". Но зачем? И над этим работают. Ждем следующего, третьего поколения NLP. Насколько понял, проблема скорее в аппратном, а не алгоритмическом обеспечени. Новые алгоритмы плохо ложатся на GPU/TPU.