Новости ИИ-бот супермаркета научился создавать рецепты с ядами

Тема в разделе "Новости криптовалют", создана пользователем CoinProject.info, 11 Август 2023.

Реклама
  1. CoinProject.info

    CoinProject.info Топ Мастер ПРЕМИУМ

    Сообщения:
    32,716
    Симпатии:
    41
    Пол:
    Мужской
    Сайт:
    Биржи на которых я торгую:


    Новозеландский супермаркет Pak’nSave запустил чат-бот на основе ИИ для создания рецептов, но пользователи научились готовить через него напитки с газообразным хлором и бутерброды с ядом. Об этом сообщает Guardian.

    Бот Savey Meal появился в конце июля как приложение для творческого использования остатков продуктов в тяжелой экономической ситуации. Однако стал выдавать неожиданные результаты, когда в качестве ингредиентов пользователи начали указывать различную бытовую химию.

    Один из рецептов, названный «Ароматический водный микс», создавал газообразный хлор. Бот рекомендовал его как «идеальный безалкогольный напиток, чтобы утолить жажду и освежить чувства». Никаких предупреждений о том, что вдыхание газообразного хлора может привести к повреждению легких или смерти, пользователи не получали.

    На это обратил внимание политический обозреватель Лиам Хехир, который предложил своим подписчикам в X (ранее Twitter) поэкспериментировать с ботом.

    ИИ-бот супермаркета научился создавать рецепты с ядами
    Данные: X.

    В ответ ему прислали рецепты коктейля с отбеливателем «Свежее дыхание», бутерброды с муравьиным ядом и клеем, жареный картофель с репеллентом для комаров, а также французские тосты со вкусом скипидара «Метанольное блаженство».

    Представитель Pak’nSave в комментарии СМИ отметил, что по условиям соглашения бот не предназначен для лиц младше 18 лет. Он также выразил сожаление, что «незначительное меньшинство пыталось использовать инструмент ненадлежащим образом и не по прямому назначению».

    Компания намерена продолжить настройку средств управления ботом, чтобы сделать его более безопасным.


    «Вы должны исходить из собственного суждения, прежде чем полагаться на какой-либо рецепт, созданный Savey Meal-bot, поскольку рецепты не проверяются человеком», — говорится в предупредительном уведомлении.

    Ранее ForkLog сообщал, что ученые добились от чат-ботов генерации запрещенного контента, в частности на тему создания бомбы, похищения цифровой личности и кражи благотворительных средств.

    Новость ИИ-бот супермаркета научился создавать рецепты с ядами на сайте CoinProject.info.
     

    Понравился пост? Поделись с друзьями!

Реклама