Привет.
Говорят, царь не настоящий! Примерно так можно отреагировать на очередную историю, в которой пытаются вывести на чистую воду Samsung, якобы компания подменяет Луну на снимках. Очередной подход к снаряду на Reddit, один из пользователей с большой помпой рассказывает о своем эксперименте: он первым в мире доказал, что Samsung использует AI-алгоритмы, чтобы дорисовывать Луну. Прочитать этот победный пост можно вот тут.
Если кто-то считает, что самое время защищать Samsung, говорить, что Луна настоящая и далее по списку, то вам точно не стоит читать текст. Но вначале несколько снимков Луны, что были сделаны мной на Galaxy S22 Ultra или S23 Ultra: цифровой зум х30, съемка с рук. В том числе огромная Луна, что случилась на днях в Петербурге.
Поверить, что небольшое устройство в ваших руках способно снимать с таким качеством и на таком расстоянии, практически невозможно. Наш “здравый смысл” подсказывает, что тут кроется обман. И это несмотря на то, что Луна, в целом, не тот объект, что сильно меняется, в конце концов, в Huawei как раз заменяют картинку Луны одной из тех, что находятся в базе данных (сегодня от такого подхода компания уже отказалась, теперь это реальные снимки спутника Земли).
Если бы Samsung меняла картинку, мы получали бы снимки совершенно другого качества, и, кажется, этот довод подействовал, теперь придумали другое объяснение — снимки обрабатывает AI-алгоритм. Пойду дальше, чем автор эксперимента, и скажу, что вне зависимости от настроек камеры, от того, включена оптимизация снимков или нет, все они подвергаются цифровой обработке. Все без исключения!
Хотите добиться снимка без обработки или с минимальной обработкой — тогда будьте добры пожаловать в режим “Про” попытать счастья с RAW-файлом. И вот в нем вы сможете увидеть “сырой” снимок, который не искорежен алгоритмами в угоду красивому отображению на экране телефона. Впрочем, чего я тут жалуюсь, мне большая часть снимков нравится, “корежит” их красиво.
Когда немного распогодится, я обязательно проделаю эксперимент с RAW-файлом и посмотрю, какой получается Луна, насколько там задействованы алгоритмы, но уверен, что их работа есть и это касается не только и не столько Луны как таковой, сколько в целом снимков, сделанных на смартфоны (а еще поснимаю Луну с экрана монитора, где есть точки, что позволяют AI-алгоритмам лучше восстанавливать картинку).
Луна как предмет съемки волнует крайне небольшое число людей (так и тянет написать что-то обидное, но я отношусь к таким людям, так что воздержусь от эпитетов). Но вот съемка других людей, архитектуры — это действительно важно в повседневной жизни. Давайте посмотрим на несколько снимков, сделанных с зумом х10 на Galaxy Ultra (два последних поколения, выделять их тут нет особого смысла).
Оптический зум в модуле камеры — штука крайне приятная, но мелкую дрожь рук при таком фокусном расстоянии нужно компенсировать, и этим занимаются алгоритмы. Они же угадывают расстояние до объектов, оценивают, что именно вы фотографируете, и даже подсказывают это на экране — появляется значок сцены, телефон меняет настройки под выбранный режим. Их сегодня уже более пятидесяти как у Samsung, так и у других компаний, определение сцены стало шаблоном для создателей камер. И если даже вы отключили AI-улучшалки, они все равно работают, просто не в таком агрессивном режиме. Причем началась эта история еще на цифровых камерах, а только потом ее позаимствовали смартфоны.
У нас все, что снимается на смартфоны, так или иначе “украшается” алгоритмами, вычислительная фотография вытягивает снимки на новый уровень. Поэтому когда начинают рассуждать про честную фотографию, тут нужно очертить предел, до которого мы считаем снимок отражением реальности и после которого он ее уже искажает. Например, снимки на аппараты линейки Pixel от Google в свое время поражали качеством портретов. Мы проделали эксперимент и сфотографировали разных девушек, с разными оттенками и структурой волос. Каждый снимок был если не идеален, то очень привлекателен — вот только волосы у каждой оказались плюс-минус одинаковыми, потерялась их индивидуальность. Причина в вычислительной фотографии, и тут нужно определиться, что нам нужно — красивый снимок или реальное отображение мира вокруг. На словах большинство за реальное отображение мира — как может быть иначе? На деле люди выбирают те устройства, что рисуют красивые картины этого мира. Вот такая несложная диалектика, которая толкает производителей на развитие вычислительной фотографии. Хотя это и не единственная причина, их намного больше.
Когда вы задействуете камеру, любой из доступных модулей в сложных условиях освещения, начинает работать целая тьма алгоритмов — каждый из них подбирается под конкретный случай и под то, что перед вами. В итоге вы получаете снимок, который способен вас порадовать, причем не всегда это то, что вы видите своими глазами. Например, мне досаждает ночной режим съемки, когда город становится на снимке светлым, словно вы фотографируете в сумерках.
Теряется очарование фонарей, теней вокруг, приходится переходить на ручной режим и снимать так, как нравится мне. Хорошо, что возможность ручной съемки не отняли и она у нас присутствует.
Пожалуйста, давайте не будем спорить о том, что современные устройства используют различные алгоритмы для улучшения качества снимков, некоторые из них настроены нейросетями. Факт! И никто с этим спорить не будет. Есть ли производители, что пытаются настроить нейросеть на конкретные объекты? Я таких не знаю, скорее это целый класс задач, в которых улучшается качество для различных снимков, — но картинка не дорисовывается, она, если так можно сказать, восстанавливается. Слишком много вокруг объектов, что могут попасть в камеру, и натренировать нейросети на каждый из них невозможно, проще создать алгоритмы, которые умеют вытягивать любой снимок — разбивать его на части, анализировать составляющие снимка, а затем собирать его вместе, повышая четкость, цветопередачу.
Вот вам несколько снимков с Galaxy S23 Ultra, представить, что так будет снимать смартфон, в 2010 году было невозможно, это казалось недостижимой высотой — сегодня это уровень флагманов. И надо сказать за это спасибо вычислительной фотографии.
Наверное, поэтому меня удивляет утверждение, что камера в смартфоне пытается улучшить снимок, в конце концов, это нормально. Более того, камера искренне считает, что это не Луна или картинка Луны на мониторе размыта, а она видит объект с дефектами. И, значит, нужно улучшить картинку. Скажу больше, конкретно в линейке Galaxy далеко не каждый раз включаются алгоритмы улучшения снимка. Например, при съемке в помещении монитора был задействован лазерный фокус, он измерял, и весьма успешно, расстояние до поверхности экрана. И при определении этого расстояния начинал работать алгоритм, который отвечает за съемку предметов поблизости, а вовсе не Луны. Вот такая эквилибристика, которую совершенно не учитывают, считая, что устройства глупы и всегда действуют по единожды заведенному сценарию. Сегодня телефоны уже настолько продвинуты, что вычленить то, как они фотографируют те или иные сцены, очень трудно, это набор крайне сложных для восприятия функций. Попробую описать один реальный сценарий из начинки того же Galaxy, то, как камера видит окружающий мир: туман, освещенность столько-то люкс, в кадре три объекта на переднем плане, расстояние до них такое-то, один из объектов — человек, два других — неживые предметы. Фокусировка происходит на человеке, он главный в кадре, если только пользователь не установит точку фокусировки где-то еще. Переоценка композиции, получение снимка. Параллельно анализ снимка, декомпозиция и повторная сборка с улучшенными параметрами. Это только малая часть действий камеры, она занимает одну, максимум две секунды. И да, как ни крути, это вычислительная фотография.
P.S. Обязательно займусь экспериментами с Луной, очень интересно посмотреть, что выйдет, и повторить или опровергнуть то, что получил человек в своих опытах. Пока склоняюсь к тому, что это ошибочная трактовка результатов — улучшение снимков всегда идет за счет алгоритмов, но Луна как таковая не имеет специально обученного алгоритма. Иначе откуда у меня были бы снимки, на которых Луна не так уж хороша и это де-факто брак?
И расскажите, во что верите вы. Луна поддельная? Важно ли это для вас?
Эльдар, заодно попробуйте щёлкнуть человека с Айфоном на максимальном зуме, интересно, дорисуется Айфон или Самсунг? И наоборот попробуйте, если AI правильно настроен, то он должен Айфон нарисовать, как статистически более популярный 🙂
Забавный разбор поста с развенчанием мифа.
Только вот в посте был четкий алгоритм, все файлы выложены в открытый доступ и можно повторить.
А в этом разоре абстрактные рассуждения и отсебятина без конкретных примеров.
"Пока склоняюсь к тому, что это ошибочная трактовка результатов — улучшение снимков всегда идет за счет алгоритмов, но Луна как таковая не имеет специально обученного алгоритма."
А это вообще шедевр. Луна, которая всегда повернута одной стороной к Земле, (не совсем точно, но тут роли не играет) по которой многие сравнивают камеры и не имеет своего алгоритма? Попробуйте делать снимки с отключенным интернетом и вы ОЧЕНЬ удивитесь результату )
А мне интересно когда уже начнут другие объекты дорисовывать, вот фотаешь ты человека и алгоритм смотрит его соцсети, выбирает фотку получше и выдаст тебе 🙂 а почему нет? Суть ведь та же в общем то. Да и масса других объектов которые потенциально можно дорисовать, всякие знаменитые здания допустим, машины и прочее. Ведь задача камеры в телефоне не запечатлеть момент, а сделать фото которое позволит сказать что у тебя крутая камера в мобиле, чтоб ты купил новую потом от этого же бренда, именно этим всякие бьютификаторы и занимаются.
Помните кстати шутку про про что Джобс решал что тебе нужно а что нет? 🙂
Mike_Zlozborn, Даже интернет не нужен, обученная нейросетка вполне себе автономно живет на аппарате, дорисовывая светило. Так же, как она дорисовывает траву, здания, некоторые другие элементы, хоть и весьма аккуратно, стараясь не бросаться в глаза (Получается не всегда).
Раньше фото ретушировали по негативу или по готовому отпечатку. Позже цифровыми редакторами. Сейчас сразу в чипе/прошивке камеры. В чём паника?
Мех на шапке девушки ужасно размазан кстати, выходом был бы хардверный портретный режим с двух камер, как в Pixel 4 и далее, ну или айфонов с 2-3 камерами.
А так да, постобработка снимка позволяет добиться впечатляющих результатов.
Очень странная статья, видно попытка оправдать Самсунг, только зачем?
>> тут нужно определиться, что нам нужно — красивый снимок или реальное отображение мира вокруг.
И с каких пор одно другому противоречит? Просто зафиксируйте качественно реальность, с хорошим динамическим диапазоном и разрешающей способностью, и у вас будет красивый снимок отображающий реальный мир.
Зимой 2021 года тут был обзор с21ультра, и там была фотка Луны, сделанная Эльдаром в первых числах февраля, когда в Москве была хорошая погода и жЫрная Луна) Утверждалось, что это честная фотка без прикрас и вау, куда технологии дошли)) Но так получилось, что в те же дни я сфотал ту же Луну на телевик, и потом наложил фотку с самсунга на фотку с никона. Тут и выяснилось, что самсунг "дорисовал" несколько кратеров там, где их не должно было быть… Так что алгоритмы неплохо достраивают реальность)))
П.Н.., В том, что если вам не понравился результат, отменить/переделать уже не сможете.
Алексей Беляков, По привычке )))
Lecron, Вот каждый раз когда сравнения фото тут появляются я про это и говорю тут… референсное фото с хорошей камеры которое отображает реальный мир. А то блин один телефон все фото желтое, другой синее, третий еще что то… объекты тоже блин на всех фото разных цветов. Ну и как можно сравнивать? Это фото или нарисованная картина?
Для меня фото это передача момента в том виде в котором я его видел, а не пересказ момента приукрашенный личным восприятием.
Но тут сразу начинается что каждый видит по разному, идеально не бывает ну и так далее 🙂 Вот реально почему бы тогда фотографируя запорожец на фото не рисовать мерседес? И то и то машина, но первое это реальная фотка, передача момента который ты видел, а второе это пропущенная через фильтры и алгоритмы -> пересказ т.е. ты видел машину, вот вам машина 🙂
Вот видео смотрел вчера, как раз про луну, там фотали Ангела в германии. На Самсунге золотой цвет прямо такой стереотипично-золотой, желтый, а на Никоне каком то с крутой оптикой там золотой, но не такой кричащий… я загугнил этого Ангела и блин везде то прямо насыщенно желтый, то немного более спокойны… и вот б%ть какой он в реальности? 🙂 Золото в общем то может выглядеть и насыщено желтым и более спокойно желтым, к тому же очевидно что этот Ангел не из чистого золота как слиток банковский т.е. он не обязательно будет таким же желтым как этот самый слиток.
Lecron, Ретушь переделать тоже, было невозможно.
"Сразу же надо сказать, что это не массовое, а корпоративное устройство"
"Соответственно, нет смысла гундеть про толстые рамки у 6.67-дюймового экрана."
Почему нет? ББ мобилы тоже были корпоративными по сути, не мешало быть технологичными. Или тут речь о том что все равно возьмут ибо вариантов не будет? Но это ущербная логика изначально… и далеко с такой не уедешь.
Kip_Thorne, Но это был достаточно контролируемый процесс, а не скорее всего получится, может быть, наверное; что, не получилось? ну не шмогла я, не шмогла.
Вы весьма ошибаетесь, если думаете что сцены обрабатываются не на основе моделей. Стоит заглянуть под капот, например прошивок realmee и внезапно обнаружится база моделей для сцен, с лицензиями. Простой пример — в портретном режиме автосрабатывают улучшатели глаз и кожи.
Маркетолухи как рассуждают — покупателю надо "нажал и готово". Поэтому по умолчанию камеру настраивают "на среднего по больнице покупателя". А кому сильно надо — ему позволяют докрутить обработку снимков в галерее, используя AI и те-же модели, снятых в RAW режиме продвинутых снимков. Меняют сглаживание кожи, увеличение глаз, овал лица, для снимков где найдено лицо. Меняют небо на пейзажах.
Я вижу проблему в одном — нет нигде кнопки быстрого отключения всех улучшателей, RAW надо искать в дебрях меню.
Эта история с Луной очень хорошо показывает всё, до чего мы дошли. Фотография раньше была фактом, а теперь иллюзия. И скоро мы совсем потеряем связь с реальностью, всякие очки дополненной реальности, будут дорисовывать эолам "красоту", а настоящий мир станет уделом "морлоков", запустеет и превратится в помойку…
Bubo Bubo, Вот теперь они базу увеличат, будут учитывать дату и точку сьемки… Вообще самсон конечно ухи объелся с таким подходом.
Маркес буквально вчера выложил на своем канале в ЮТ видео об этой теме. Он там тоже пытается разобраться
zver0boy, Есть вариант использовать стороннее приложение камеры, в котором изначально нет лишних функций "улучшателей". Если не на постоянной основе, то как раз для случаев когда необходимо получить на снимке максимум "правды".
Эльдар, для эксперимента как на реддите возьмите еще снимок Луны из космоса) уменьшите его и посмотрите как его телефон дорисует. Если нейронка обучена в основном на снимках Луны с Земли, то разница может быть заметна)
"Более того, камера искренне считает, что это не Луна или картинка Луны на мониторе размыта, а она видит объект с дефектами. И, значит, нужно улучшить картинку."
Ну то есть вы целиком с постом на реддите согласны, так? Поскольку очевидно, что улучшайзер для Луны может быть только специализированным, предназначенным только для нее, а не общего назначения.
Lecron, Вот-вот. А у меня ещё плёночный Pentax остался.
Warak, Ну строго говоря многие пользователи смартфонов реально рассчитывают получить хорошее фото луны при 10-кратном цифровом увеличении (30х из которых 3х — объектив, а 10х — апскейл). И нет ничего странного/страшного со стороны производителей в том чтобы дать им желаемое (неважно как, главное чтобы результат нравился). Но вот заявлять в обзорах и сравнениях о том, что это ИИ "улучшает картинку хитрыми алгоритмами" (а не заменой картинки), смотрите какой самсунг/хуавей/другой бренд молодец, смог выжать из камеры невероятный результат (луна прям как настоящая) — признак того что человек в вопросе не разбирается как минимум совсем.
Ubeavis, Тоже в некотором смысле не совсем понимаю логику на самом деле, не проще ли тогда подсовывать одно из тысяч реальных хай-рес изображений со всяких спутников и прочего, все равно же уже не то что оптика поймала показываете… хз, они как то на пол пути остановились в итоге могут словить хейта и от сторонников чистоты искусства, и от сторонников красоты на автомате 🙂
К тому же действительно они не первые и не могли не понимать что заявляя в рекламе как круто фотается и используя уловку такую при этом не анонсируя ее сразу народ не поймет когда всплывет правда.
Учитывая, что обращённая к нам часть Луны периодически чуть поворачивается своими скрытыми сторонами, подловить алгоритмы теоретически можно и на этом. Суммарно 9% "темной" стороны, насколько помню.
О! А тут и объяснение того, как на самом деле рисуется Луна, аж от самого самсунга подъехало.
https://www.samsungmobilepress.com/feature-stories/how-samsung-galaxy-cameras-combine-super-resolution-technologies-with-ai-technology-to-produce-high-quality-images-of-the-moon/
Lecron, Тогда проще уже загубить фото Луны, чем руками махать в полуночи, чтобы получить результат от "такого себе" ИИ.
Владимир Репин, Вадим Панов, "Яр(к)ость" — в частности, об этом.
Bubo Bubo, спасибо! А то читать маркетинговые экзерсисы автора без каких-то фактов скучно.
Владимир Репин, это каким таким фактом была фотография? Даже белый цвет нельзя понять, какого цвета на самом деле. Разный баланс белого — и цвета могут отличаться разительно, да и вообще сама технология матрицы камеры не сказать, что прям показывает всегда реальную картину
Товарищ А., простите, а как связана "дибилизация", скорость потребления контента и плевки в суши?
Bassist, Вообще-то до матриц была плёнка и пластины…
Владимир Репин, ещё меньше объективности получается
😤