Нейросети могут распространять стереотипы о женщинах, детях, беженцах, коренных народах, людях с ограниченными возможностями и других, пишет Science.
В исследовании, опубликованном на страницах журнала, говорится, что основным источником, на котором обучаются модели искусственного интеллекта является информация из интернета.
По словам авторов, люди вполне могут воспринимать ответы нейросети как достоверные. Они отметили, что в таком случае, у человека может закрепиться ошибочное суждение.
В качестве примера приводятся данные нейросети, согласно которым, чернокожие ответчики в суде являются менее благонадежными.
Авторы выразили обеспокоенность, что практика вынесения приговоров у судей, ознакомившихся с данной моделью ИИ может измениться.
В связи с этим, в исследовании указывается на необходимость учить людей отличать фактические возможности новых технологий от воображаемых.
Ранее сообщалось, что ученые из Петрозаводского государственного университета и международные коллеги разработали новый метод расчета энтропии с использованием нейронной сети NNetEn. Подробнее об этом читайте в материале «ЭкоПравды».
Участники экспедиции Института востоковедения РАН непосредственно при раскопках в Гизе уникального погребения в доселе неизвестной…
Поток быстрого солнечного ветра поступил к Земле непосредственно из корональной дыры, но магнитных бурь на…
Mason Elephant Park, расположенный на острове Бали, прекратил окончательно катать людей на слонах. Причем это…
Российские ученые применили методы квантовой химии и системы ИИ непосредственно для поиска стабильных соединений углерода…
Международный коллектив физиков разработал недавно особое покрытие непосредственно для внешней и внутренней поверхности труб, которое…
Американские ботаники рассказали, что один из известных видов цветущих лиан, которые произрастают сейчас в прибрежных…