Нейросети могут распространять стереотипы о женщинах, детях, беженцах, коренных народах, людях с ограниченными возможностями и других, пишет Science.
В исследовании, опубликованном на страницах журнала, говорится, что основным источником, на котором обучаются модели искусственного интеллекта является информация из интернета.
По словам авторов, люди вполне могут воспринимать ответы нейросети как достоверные. Они отметили, что в таком случае, у человека может закрепиться ошибочное суждение.
В качестве примера приводятся данные нейросети, согласно которым, чернокожие ответчики в суде являются менее благонадежными.
Авторы выразили обеспокоенность, что практика вынесения приговоров у судей, ознакомившихся с данной моделью ИИ может измениться.
В связи с этим, в исследовании указывается на необходимость учить людей отличать фактические возможности новых технологий от воображаемых.
Ранее сообщалось, что ученые из Петрозаводского государственного университета и международные коллеги разработали новый метод расчета энтропии с использованием нейронной сети NNetEn. Подробнее об этом читайте в материале «ЭкоПравды».
Ученые «Газпром нефти» провели исследование природы в районе Северного морского пути. Они оценили популяции птиц…
Исследователи химического факультета Московского государственного университета имени М. В. Ломоносова применили лазерную плазму непосредственно для…
Ученые давно занимаются исследованием водяного льда и его разновидностей, чтобы объяснить его свойства. В журнале…
Геомагнитная обстановка непосредственно в период майских праздников ожидается достаточно спокойной, как сообщили накануне в лаборатории…
Сотрудники экологического фонда "Чистые моря" совместно с ведущими специалистами по морским млекопитающим Института проблем экологии…
Китайские ученые разрабатывают на данный момент технологии получения авиационного топлива непосредственно из углекислого газа. Как…