Нейросети могут распространять стереотипы о женщинах, детях, беженцах, коренных народах, людях с ограниченными возможностями и других, пишет Science.
В исследовании, опубликованном на страницах журнала, говорится, что основным источником, на котором обучаются модели искусственного интеллекта является информация из интернета.
По словам авторов, люди вполне могут воспринимать ответы нейросети как достоверные. Они отметили, что в таком случае, у человека может закрепиться ошибочное суждение.
В качестве примера приводятся данные нейросети, согласно которым, чернокожие ответчики в суде являются менее благонадежными.
Авторы выразили обеспокоенность, что практика вынесения приговоров у судей, ознакомившихся с данной моделью ИИ может измениться.
В связи с этим, в исследовании указывается на необходимость учить людей отличать фактические возможности новых технологий от воображаемых.
Ранее сообщалось, что ученые из Петрозаводского государственного университета и международные коллеги разработали новый метод расчета энтропии с использованием нейронной сети NNetEn. Подробнее об этом читайте в материале «ЭкоПравды».
Президент России Владимир Путин выразил солидарность с позицией лидера США Дональда Трампа непосредственно о злоупотреблении…
Палеоклиматологи обнаружили недавно, что средневековая "черная смерть", то есть эпидемия чумы, была в том числе…
Палеогенетики из ЮАР и Европы в ходе исследований открыли неизвестную доселе популяцию древних людей, которая,…
Новый метод специального поиска атмосферных загрязнителей применили накануне в Северном Арктическом федеральном университете (САФУ). Он…
Если неподалеку перерабатывают мусор, страх за окружающую среду растет, а любой неприятный запах, стоит ему…
Российские исследователи разработали специальную комплексную методику непосредственно для оценки пластикового загрязнения прибрежных зон, которая будет…