Мир
США намерены прекратить восприятие НАТО как постоянно расширяющегося альянса
USD 76,9708 EUR 89,9011
Мир
США намерены прекратить восприятие НАТО как постоянно расширяющегося альянса
Россия
Продолжение следует: Рамзан Кадыров рассказал об ударах возмездия по Украине
СКФО
Сбер инвестировал более 7,2 млрд рублей в развитие АПК на Северном Кавказе
Блоги
Финляндия собирается лишить украинских беженцев всех выплат ради экономии
Главная » НОВОСТИ » В мире » Ученые: ИИ способен чувствовать себя виноватым
31.07.2025 15:05
Искусственный интеллект способен испытывать чувство стыда за совершенное предательство, пишет портал Новости Mail.ru. Исследователи уточняют, что это качество в нем можно развить, то есть, по сути, запрограммировать. Но одновременно выяснилось, что это далеко не в каждом случае конструктивно.
Ученые смоделировали взаимодействие двух участников игры, в которой каждому необходимо сделать моральный выбор: совершить предательство и получить выгоду либо оставаться честным, но подвергнуть себя риску. По сценарию, один или даже оба игрока — ИИ.
В ходе этого эксперимента решили исходить из того, что оба предали — важно было понаблюдать за дальнейшим развитием событий именно в этом случае. При этом моделирование предполагало, что в участниках заложена способность оценивать свои поступки и стремление исправиться после совершения ошибок.
Но возникающее после оплошности чувство вины ученые разделили на две разновидности: вина «социальная» и «несоциальная». Первая проявляется только тогда, когда партнеру по игре тоже стыдно: ИИ понимает, что второй участник раскаивается, и приходит к выводу о необходимости перехода от нечестного поведения к дружбе и сотрудничеству.
Вина «несоциальная» возникает в любом случае как некий внутренний «компас» — даже если партнер абсолютно не сожалеет о собственном предательстве и намерен продолжать в том же духе. В такой ситуации «стыдящийся» участник легко может стать жертвой циничного оппонента, подчеркивают исследователи: раскаявшийся начинает играть честно, а противнику очень удобно этой честностью манипулировать в своих интересах. В итоге какое-либо конструктивное взаимодействие оказывается невозможным.
По мнению ученых, этот эксперимент поднимает важный и даже, можно сказать, философский вопрос о том, какое поведение роботов более правильно: должны ли они честно поступать с явно безнравственными людьми — может оказаться, что тем самым они будут только помогать этим людям совершать аморальные поступки, а в конечном счете это вредно для общества.
Все права защищены. При перепечатке ссылка на сайт ИА "Грозный-информ" обязательна.
Нашли ошибку в тексте? Выделите ее мышкой и нажмите: Ctrl+Enter
Поделиться: