Статьи3 ноября 12:00

Почему нейросети не всегда полезны потребительскому рынку

Покупатели стали сомневаться в качестве продукции и правдивости отзывов

Фото новости: "Почему нейросети не всегда полезны потребительскому рынку"

Круассан в форме бегемота из несуществующего ресторана Ethos

Нейросети постепенно меняют потребительский рынок, причем в обе стороны — есть и плюсы, и минусы. С их помощью можно упростить создание «продающего» контента и ускорить бизнес-процессы. Но потребителям не всегда нравится, как бренды используют искусственный интеллект (ИИ). Например, больше половины опрошенных аналитическим агентством Accenture сомневаются, что отзывы на продукты, которые они видят в интернете, — реальные. 

Иногда нейросети генерируют информацию, далекую от действительности. И порой это уже переходит границы: нейросеть от Google предложила добавлять в начинку для пиццы клей. Подробнее о том, чем нейросети могут не угодить и даже навредить покупателям, рассказываем в обзоре Shoppers. 

Слишком красивые фотографии

Маркетплейсы Ozon и Wildberries уже разработали виртуальные фотостудии, которые позволяют делать картинки для карточек с вещами. Это помогает продавцам экономить на услугах фотографов и моделей, так что инструмент и правда полезен. 

Сделать привлекательнее можно и еду. В прошлом году «Яндекс.Еда» разработала нейросеть, которая улучшает качество фотографий ресторанов — и, следовательно, улучшает конверсию заказов. Изображение котлет в одноразовой посуде ИИ обработает так, чтобы они выглядели красиво — подставит керамическую тарелку и улучшит цвета. Но сама компания признавала, что нейросеть может «добавить лишние ингредиенты», поэтому на этапе тестирования сотрудники сверяли картинки с исходниками.   

Если «Яндекс» готов проверять, насколько блюдо похоже на реальное, то в соцсетях этим занимаются далеко не все компании. В отчете Getty Images говорилось, что 98% потребителей будут доверять бренду, который использует настоящие изображения. При этом 78% заявили, что им трудно отличить сгенерированную картинку от обычного фото. И они не готовы доверять брендам, которые злоупотребляют ИИ. 

Настороженность потребителей растет. Как показал опрос Accenture, 59,9% из них сомневаются в подлинности онлайн-контента. 

Галлюцинации нейросетей

Искусственный интеллект не берет информацию из ниоткуда — он обучается на информации, которую в него загрузили разработчики. Как правило, она почерпнута из интернета, поэтому полезное может сочетаться с откровенным бредом. А еще нейросети иногда интерпретируют информацию так, что в итоге могут выдавать ответы, которые не имеют ничего общего с реальностью. 

Один из примеров такой галлюцинации — ответы «Алисы» на YandexGPT на простой вопрос «сколько вторников в ноябре». Запрос завирусился в TikTok, потому что колонка выдавала совершенно рандомные числа — у кого-то вторника было два, у кого-то — все девять. 

Историю с пиццей и клеем Google объяснил тем, что функция нейропоиска AI Overview «неверно интерпретирует нюансы языка в интернете». То есть некоторые ответы она берет с форумов, где люди друг друга троллят, а отличать сарказм ИИ не обучали. 

Впрочем, клей в пиццу при желании добавить можно — если он нетоксичный. Этот совет проверила корреспондент Bussiness Insider Кэтти Нотопулус и пришла к выводу, что вкус у такой пиццы не так уж плох.  

Но иногда нейросети могут быть вредны и даже опасны. Например, британская семья заказала на Amazon недорогое пособие для начинающих грибников с картинками, которое сгенерировал искусственный интеллект. В итоге люди отравились и оказались в больнице, рассказал пользователь Reddit. Расследование журналистов показало, что на платформе действительно продаются книги, которые написали чат-боты. Сам Amazon пытался замять инцидент, предложив семье скромную компенсацию. 

В июне 2024 г. нейросеть Gemini от Google на просьбу пользователя «как улучшить оливковую заправку чесноком без нагрева» посоветовала ему рецепт, который привел к созданию биотоксина. Пользователь действовал по инструкции нейросети, которая предложила не просто смешать ингредиенты, но и дать им «настояться» при комнатной температуре в течение недели. В итоге у него получилась не приправа, а отрава с клостридиями — бактериями, вызывающими ботулизм.  

Поддельные отзывы и даже бренды

Другая проблема — сгенерированные отзывы. В отчете Accenture говорится, что 38% потребителей столкнулись в 2024 г. с поддельными отзывами о продуктах и 52,8% регулярно ставят под сомнение подлинность отзывов. Но чем больше развиваются нейросети, тем сложнее отличить реальность от выдумки. 

Иногда доходит до странностей. Скажем, человек видит рекламу, но бренда на самом деле не существует. На это пожаловался один из пользователей соцсетей. 

Другой пример: ресторан Ethos в Остине (штат Техас, США), у которого больше 70 000 подписчиков в Instagram (принадлежит Meta, признана экстремистской в России). В ленте публикуются изображения «креативных» блюд: круассаны в форме динозавра или бегемота и букеты бургеров. Но на самом деле этого ресторана не существует. Тем не менее создатели аккаунта зарабатывают — как минимум на рекламе и продажах товаров. Например, в продаже есть футболка I Dined At Ethos («Я обедал в Ethos»). 

Популярное

за неделю
0