Примечание редакции Mobile-review.com. Мы подбираем материалы в раздел «Мнение», чтобы показать то, как воспринимают рынок компании в других странах. Мнения в таких материалах зачастую не совпадают со взглядами нашей редакции, но дают понимание рынка, его медийной составляющей.
По материалам Android Central
Во время мероприятия Galaxy Unpacked 2025 представители компаний Samsung и Google упоминали нечто, о чем мы еще не слышали применительно к смартфонам: агентный ИИ.
Возможно, он ускользнул и от вашего внимания, поскольку о нем не было сказано ничего, кроме названия, зато много говорилось о том, как он сможет работать в новых смартфонах линейки Galaxy S25. Он играет важную роль во всем этом новейшем и умнейшем ПО под названием Galaxy AI.
Агентный ИИ – новая технология, но не самая-самая свежая и передовая. Она уже давно используется на фабриках и предприятиях с высокой степенью автоматизации.
Если попробовать объяснить, что это такое, получится скучновато: вероятностная технология, которая адаптируется к изменяющимся условиям и событиям. Но на самом деле это ни разу не скучно! Суть в том, что это смесь большой языковой модели, машинного обучения и автоматизации (программной или аппаратной), которая может сформировать полуавтономный ИИ, который будет анализировать данные, мгновенно ставить задачи и предпринимать соответствующие действия для достижения поставленных целей.
Выглядит как новый шаг к пугающему очеловечиванию ИИ, но до этого мы еще не дошли. Пока. Но так можно создать агента ИИ, который будет больше похож на человека, когда вы взаимодействуете с ним, и сможет лучше отвечать вашим потребностям, в определенных рамках, конечно.
Samsung отметила, что новые инструменты и функции ИИ доступны благодаря новому специализированному чипу Snapdragon с ультрамощным нейронным процессором. Многое зависит именно от него. Еще одна упомянутая составляющая — это граф знаний (семантическая сеть, в которой хранится информация о разных сущностях и взаимосвязях между ними), построенный на том, что вы делаете, где, когда и как вы это делаете. И то и другое используется для воплощения агентного ИИ в жизнь внутри маленького смартфона.
Посмотрим, как агентный ИИ работает на фабрике, поскольку он уже туда внедрен. Например, кто-то сообщает программному обеспечению, что требуется, скажем, 20 000 каких-то штук, готовых и упакованных для отправки через пять дней.
Сотрудники программируют отдельные автоматизированные линии, которые выполняют различные работы, необходимые для создания штуки. Это похоже на данные, которые вы добавляете в свой собственный граф знаний на своем телефоне — вы сообщаете программному обеспечению рецепт и ингредиенты для конечного результата.
Агентный ИИ контролирует всю операцию целиком. Он знает, сколько штук нужно закончить и когда они потребуются, поэтому он настраивает отдельные параметры для достижения цели наиболее эффективным способом. Например, если одна линия, производящая деталь, останавливается на техобслуживание, ИИ может увеличить производительность другой линии, производящей ту же деталь, пока техобслуживание не будет завершено. Если упаковочная линия выключается, ИИ может остановить все необходимые процессы, чтобы не перегружать ее во время простоя.
Все это рутинные задачи, но ПО было запрограммировано на то, чтобы следить за ними, анализировать полученные данные и, руководствуясь ими, принимать обоснованные решения.
В вашем смартфоне агентный ИИ хранит все данные обо всем, что вы делаете со своими устройствами, в одном месте. Когда вы просите о чем-то ИИ, скажем, найти фотографию заката в таком-то месте такого-то числа или подсказать, сколько вам нужно бегать каждый день, чтобы сжечь еще чуток калорий, он просматривает эти данные и анализирует то, что находит.
Затем он решает, какие данные более полезны, какие вообще не следует использовать, а какие наиболее важны для предоставления вам того, что вы запросили. Если он видит 100 фотографий в указанном месте, 1300 фотографий, сделанных в нужный день, и 71 фотографию закатов, он перепроверяет данные, чтобы увидеть, получены ли какие-либо из них с одной и той же фотографии. Если это так, то именно это он вам и показывает. Если нет, то тогда он даст отрицательный ответ в той форме, в которой его запрограммировали.
Функция работает автономно, так что вы можете, к примеру, получить уведомление о том, что вам нужно выйти на работу на 20 минут раньше, потому что на вашем обычном маршруте произошла авария и вам стоит выбрать другой путь. И, кстати, возьмите с собой зонтик, даже если сейчас солнечно, потому что позже пойдет дождь. А вот здесь вы можете выпить кофе, потому что кафе, куда вы обычно заходите, будет вам не по пути.
Насколько хорошо будет работать этот новый Galaxy AI, нам еще предстоит оценить. На первый взгляд, все это мало чем отличается от того, что наши телефоны уже могут делать для нас или сообщать нам. Но конкретно данная технология — большой шаг вперед, и когда какой-нибудь талантливый инженер задумает что-то новое, гораздо большее станет возможным.
Прим. редактора. Неясно, как эти функции будут работать в России, но пока именно такие доработки ИИ, которые никак не видны глазу и даже кажется, что нечто похожее есть у всех, могут оказаться теми шагами вперед, которые и демонстрируют истинную инновационность смартфонов. В этом отношении Galaxy S25 — действительно существенно обновленный аппарат, несмотря на то, что он не прибавил мегапикселей и разительно не поменялся по дизайну. Еще интереснее будет увидеть ответ Apple, ведь именно уникальный по гладкости пользовательский опыт был тем, за что переплачивали, выбирая iPhone. Теперь же Google и Samsung перебросили мяч на чужую половину поля и могут забить решающий гол, если в Купертино продолжат так же пренебрежимо мало давать своим пользователям в области ИИ.
>> Он знает, сколько штук нужно закончить и когда они потребуются, поэтому он настраивает отдельные параметры для достижения цели наиболее эффективным способом.
Это типичная ERP-система. Даже близко не ИИ. Ближайшая аналогия — это Excel-файл с несколькими взаимосвязанными посредством формул листами. Может, потому и не стали сильно заострять на ней внимания, что пустышка?
Идея на самом деле хорошая, позволяющая избежать завалов продукции на «тонких» участках производства.
Вообще у Самсунга неплохие линии сборки, смотрел несколько видео на Ютубе, впечатляет.
Кстати, у Мазды в Японии есть и прям очень старые линии, покрашенные обычной зелёной краской, с большой долей ручного труда.
А у Хундая в Словении — только с иголочки новые по последнему слову техники 😉
Но что-то чем дальше, тем ближе мы к автоматизированным фабрикам вооружения, как в Horizon 🙂
Несмотря на откровенно скудные обновления всё равно пытаются представить галакси 25 как что-то новое. Корейцы S-pen испортили и для меня это разочарование, молчу про камеры.
В среде любителей мобильного фото такое обновление вызвало лишь желание след смартфон купить не самсунг.
И снова маркетинговая клюква в переводе, если мы говорим про классический агент — это по сути массив разного под капотом чтобы делать одну задачу. В случае с фото пробрасывается запрос в галерею (которая и так позволяла найти условный закат в условную дату), и возвращается ответ через некий API. Но что тут инновационного?
Перелицованный Gemini не может порыться у вас в файлах или облаках через приложения, и показать вам те же фото заката оттуда. (наверное, это даже хорошо). Дальше — больше, в оффлайн режиме он в целом не так чтобы много что может, тогда в чем смысл превознесения NPU для этой задачи? LLM можно крутить на гораздо более скромном железе но все снова упрется в API интеграции с приложениями (а мы знаем как в мире Android “любят” использовать последние SDK) так что System wide снова не выйдет, а иметь «два ядра, три гига и игровую видеокарту» чтобы искать фото голосом и закидывать встречи в календарь, генерить картинки по описанию и делать перевод. ¯\_(ツ)_/¯
-1 экран это действительно куда веселее и полезнее, календари, важные вещи в рамках дня, опять же кейс с пробками и рисками задержки. Но все это мы и так уже видели и оно работало на крайне старом железе и делало это вполне себе ок. Сможет ли AI революция вдохнуть туда что-то, непонятно.
😤
Я приглядываюсь к OnePlus 13 — ИИ мне не нужны функции. Если что-то спросить только. Не принципиально. Главное, чтобы плавно работал, не показывал рекламу и редкие фотографии и видео не вызывали плохих эмоций
Mikhail Volkov, Согласен. Кривовато написано. Так и видится дискретный алгоритм.
ERP обрабатывает только то, что в нее заложили. Но что будет, если горизонт планирования задачи Х, в котором участвует станок Y, больше заложенного в систему горизонта планирования станка? Или исполнительный модуль настолько незначительный, что его жизненный цикл вообще не вносится в план. Всё предусмотреть невозможно! Но при этом, его простой вполне влияет на выполнение задачи.
Возьмем другой пример. Есть много дискретных алгоритмов поиска кратчайшего пути. Но как только математика переносится в жизнь, реальные отрезки этого пути, становятся неравны исходным данным. Причем реальные условия динамически меняется по времени — пробки, погода. Удачи в ручном планировании.
Получаем ERP опирающуюся на заложенные данные, а когда их нет, на предсказанные. За предсказание которых отвечает нейросеть, собиравшая данные в процессе выполнения предыдущих задач. Больше данных для планирования, точнее выработанная стратегия.
>> На первый взгляд, все это мало чем отличается от того, что наши телефоны уже могут делать для нас или сообщать нам. Но конкретно данная технология — большой шаг вперед
Это если оценивать только качество. И то, можно спорить, большой это шаг, просто шаг или шажочек. Совсем иначе выглядит, если начать оценивать цена-качество. Вдруг этот шаг качества, потребует гигантский прыжок ресурсов.
Смартфон для большинства пользователей остается прежде всего утилитарным инструментом: быстрые звонки, сообщения, новостная лента, фотографии и легкие развлечения.
Искусственный интеллект пока что представляет реальный интерес только для узкой группы пользователей.
Из действительно применимых инструментов — элементарные вещи вроде проверки орфографии через клавиатуру. Сложные же сценарии вроде "найди фотографию на побережье Черного моря, где я стою на одной ноге и светится солнце" остаются невостребованными и выглядят искусственно.
Lecron, ,
>> Получаем ERP опирающуюся на заложенные данные, а когда их нет, на предсказанные. За предсказание которых отвечает нейросеть, собиравшая данные в процессе выполнения предыдущих задач.
А я вижу это так: при приближении окончания времени эксплуатации станка, функция которого требуется и далее, система просто составляет план на приобретение и работы по установке нового до момента ручного вмешательства в процесс со стороны человека. Применительно же к станкам предсказать же что-то иное система едва ли сможет. Мне сложно вообразить процесс, при котором нейросети поступают сведения об актуальном оборудовании, новых технологиях обработки, свежих нововведениях в тарификации, отчётах о кадровом резерве и прочих сведениях, способных повлиять на результат. Если же кто-то замахнулся на это, то работать это производство будет только в таком же виртуальном мире, где существует и нейросеть.
Mikhail Volkov, Я вижу так: при планировании, при подсказках учетной системы, человек учитывает еще некоторое количество факторов. На опыте или интуиции, которая суть тот же опыт. Это могут быть как сложно-гибкие закономерности, так и мелочи невносимые в систему. В том числе мыслить в рамках распределений вероятностей. Часть этого, нейросеть способна повторить. Но что конкретно из этого будет реализовано, гадать можно долго.
Вообще, описанное в статье, сильно коррелирует с моим видением умного дома. Сейчас всё на довольно простых правилах. Открыть тогда, включить тогда. Если владелец умного дома не предусмотрел более редкие, условные кейсы — их не будет. А нейросеть, анализируя десятки признаков и их связи, набор правил будет постепенно усложнять. Например если задерживаясь в будни по приходу чай всё равно пьет, а приходя поздно в пятницу не пьет, добавить исключение в правило "включить чайник когда вернулся хозяин".
Romeo White, На самом деле, еще более искусственно. Потому что часть информации быстро стирается из памяти, а часть перемешивается, искажаясь. И желая найти упомянутую фотографию, может оказаться на искомом снимке не Черное, а Красное море; стоит на обоих ногах; а руках панамка с солнцем.
Не понимаю, в чем тут новшество? Мне еще лет 5 назад госуслуги подсказывали, что стоит подать заявление на смену паспорта к 45-летию. Это называется проактивность.
Какой непрофессиональный бред написан в статье! Нельзя проосто так взять и изменить производительность линии. Производство — это не про гибкость, а про отлаженность процессов. Производительность же рассчитывается по множеству факторов на этапе проектирования производственной линии. Нельзя производить меньше или больше "штук" в единицу времени, можно только уменьшать или увеличивать время выполнения производственного цикла. Носятся со своим ИИ, придумывая ему разные сценарии использования, а реальные процессы так и выполняются в ручном режиме людьми.
"Если упаковочная линия выключается, ИИ может остановить все необходимые процессы, чтобы не перегружать ее во время простоя." как можно перегрузить то, что не работает?
Вы решили план по бредовым статьям в начале года сразу за весь год выполнить? По принципу "все равно кто-нибудь этот бред опубликует, так лучше пусть это буду я"?
Ну, это нейронная сеть. Новизна, видимо, в том, что это стало возможным запихнуть в смартфон