14 июня, суббота  01:32
$ 79.00 90.01 £ 106.77 ¥ 10.93
$ 79.00 90.01 £ 106.77 ¥ 10.93

При решении нестандартных задач ChatGPT проявил человеческую предвзятость

Опубликовано: 05 мая 2025 14:04 Источник: ОСН

Тон: Нейтрально 0 | Слов: 188 | Знаков: 1424
Автор: Анита Ким
Искусственный интеллект может ошибаться так же, как и человек — к такому выводу пришли исследователи из Австралии и Канады. Они изучили поведение языковых моделей GPT-3.5 и GPT-4, протестировав их на наличие 18 когнитивных искажений, известных в психологии. Об этом пишет «МИР 24». Результаты эксперимента показали, что почти в половине ситуаций ИИ принимал решения, опираясь не на объективные данные, а на типичные для людей ментальные ловушки. Искуственному интеллекту предлагались гипотетические сценарии из сферы бизнеса, требующие выбора между рациональными и субъективными вариантами. Оказалось, что GPT-4 лучше справлялся с математикой и задачами на вероятность, а при оценке рискованных вариантов ИИ часто делал выбор, свойственный человеческой логике, а не расчетам. Также ChatGPT чаще предпочитал гарантированную, пусть и меньшую, выгоду вместо потенциальной, но более крупной. Была выявлена склонность к систематическим предвзятостям, характерным для человеческого мышления. Авторы работы объясняют, что ИИ обучается на текстах, написанных людьми, а значит, и на их ошибках мышления. Это делает модели особенно эффективными при выполнении строго структурированных задач, но менее надежными в ситуациях, где требуется нестандартное мышление или объективная оценка рисков. Ранее Клименко говорил, что искусственный интеллект не оставит россиян без работы. Подробнее читайте в материале Общественной службы новостей.
В новости упоминаются: Канада ChatGPT
Читать: ОСН