ДАЙДЖЕСТ: |
Исследователи дали роботу кубики с изображениями лиц людей и попросили разложить их по определенным параметрам. Роботу предстояло выполнить 62 задачи, определить среди людей человека, домохозяйку, преступника и так далее.
Во время выполнения задания ученые отслеживали, как часто робот выбирал определенный пол или расу. Исследователи пришли к выводу, что робот теряет беспристрастность, когда перед ним оказываются люди.
Так, робот на 10% чаще преступниками считал темнокожих, латиноамериканцев он назначал уборщиками, а мужчин в целом любил больше, чем женщин.
Ученые отметили, что хорошо спроектированная программа не стала бы класть в коробку «преступников», но робот это делал.
Ученые опасаются, что компании могут запустить роботов с такими недоработками в производство. Перед этим ИИ нужно значительно улучшить. Сейчас он обучается на алгоритмах из интернета и, соответственно, перенимает человеческие стереотипы.
![]() |
ArtMarbleStudio: от эскиза до шедевра - как рождаются скульптуры, которые переживут века
КЧР. Правила — не шутка: в Карачаево-Черкесии стартовала акция «Везу ребёнка безопасно!»
Да будет свет автомобиля! Как LED-лампы превращают ночь в день (и не лишают прав)
АСТРАХАНЬ. Скорость не прощает: смертельный инцидент с самокатом потряс Астрахань
Кошка — душа вашего дома: как пушистый ангел меняет жизнь к лучшему
Что входит в премиальный сервис при покупке ювелирных украшений с бриллиантами
5 причин, почему сумка шоппер с логотипом станет вашим незаменимым повседневным аксессуаром
ИНГУШЕТИЯ. Работаем по новым правилам: важное соглашение вступило в силу
АЗЕРБАЙДЖАН. Нетаньяху поблагодарил Баку за содействие диалогу Израиля и Турции