Мир
Врач объяснил, почему не стоит мыть руки слишком горячей или ледяной водой
USD 75,8532 EUR 89,2556
Мир
Врач объяснил, почему не стоит мыть руки слишком горячей или ледяной водой
Россия
Единый день открытых дверей пройдет в регионах России во всех кластерах «Профессионалитета»
СКФО
Тамаев отказался от гуманитарной миссии в Дагестане из-за высказываний местного депутата
Блоги
В Госдуме отреагировали на рождественское обращение Зеленского с пожеланием смерти
Главная » НОВОСТИ » В мире » Ученые: ИИ способен чувствовать себя виноватым
31.07.2025 15:05
Искусственный интеллект способен испытывать чувство стыда за совершенное предательство, пишет портал Новости Mail.ru. Исследователи уточняют, что это качество в нем можно развить, то есть, по сути, запрограммировать. Но одновременно выяснилось, что это далеко не в каждом случае конструктивно.
Ученые смоделировали взаимодействие двух участников игры, в которой каждому необходимо сделать моральный выбор: совершить предательство и получить выгоду либо оставаться честным, но подвергнуть себя риску. По сценарию, один или даже оба игрока — ИИ.
В ходе этого эксперимента решили исходить из того, что оба предали — важно было понаблюдать за дальнейшим развитием событий именно в этом случае. При этом моделирование предполагало, что в участниках заложена способность оценивать свои поступки и стремление исправиться после совершения ошибок.
Но возникающее после оплошности чувство вины ученые разделили на две разновидности: вина «социальная» и «несоциальная». Первая проявляется только тогда, когда партнеру по игре тоже стыдно: ИИ понимает, что второй участник раскаивается, и приходит к выводу о необходимости перехода от нечестного поведения к дружбе и сотрудничеству.
Вина «несоциальная» возникает в любом случае как некий внутренний «компас» — даже если партнер абсолютно не сожалеет о собственном предательстве и намерен продолжать в том же духе. В такой ситуации «стыдящийся» участник легко может стать жертвой циничного оппонента, подчеркивают исследователи: раскаявшийся начинает играть честно, а противнику очень удобно этой честностью манипулировать в своих интересах. В итоге какое-либо конструктивное взаимодействие оказывается невозможным.
По мнению ученых, этот эксперимент поднимает важный и даже, можно сказать, философский вопрос о том, какое поведение роботов более правильно: должны ли они честно поступать с явно безнравственными людьми — может оказаться, что тем самым они будут только помогать этим людям совершать аморальные поступки, а в конечном счете это вредно для общества.
Все права защищены. При перепечатке ссылка на сайт ИА "Грозный-информ" обязательна.
Нашли ошибку в тексте? Выделите ее мышкой и нажмите: Ctrl+Enter
Поделиться: