Американка едва не пострадала после неверного ответа ChatGPT о ядовитом растении
Опубликовано: Вчера 12:27 Источник: Газета.ру
Тон: Нейтрально 0 | Слов: 213 | Знаков: 1521
Автор: Алексей Алексеев
Блогерша из США заявила, что советы, полученные от чат-бота ChatGPT, могли привести к опасной ситуации для ее подруги. По словам американки, ИИ ошибочно определил ядовитое растение как безвредное, пишет LADBible.
Читать:
Газета.ру
МедиаПоиск