Нейросети могут распространять стереотипы о женщинах, детях, беженцах, коренных народах, людях с ограниченными возможностями и других, пишет Science.
В исследовании, опубликованном на страницах журнала, говорится, что основным источником, на котором обучаются модели искусственного интеллекта является информация из интернета.
По словам авторов, люди вполне могут воспринимать ответы нейросети как достоверные. Они отметили, что в таком случае, у человека может закрепиться ошибочное суждение.
В качестве примера приводятся данные нейросети, согласно которым, чернокожие ответчики в суде являются менее благонадежными.
Авторы выразили обеспокоенность, что практика вынесения приговоров у судей, ознакомившихся с данной моделью ИИ может измениться.
В связи с этим, в исследовании указывается на необходимость учить людей отличать фактические возможности новых технологий от воображаемых.
Ранее сообщалось, что ученые из Петрозаводского государственного университета и международные коллеги разработали новый метод расчета энтропии с использованием нейронной сети NNetEn. Подробнее об этом читайте в материале «ЭкоПравды».
Специалисты НИИ скорой помощи имени Склифосовского успешно вылечили мужчину с обширными ожогами от борщевика, сообщил…
В Ростовской области развернуты поиски сбежавшего из глэмпинг-отеля кенгуру по кличке Сидней. К операции привлечено…
Приморский суд приговорил пятерых местных жителей к 5–5,5 годам колонии за убийство краснокнижного амурского тигра…
В Московском зоопарке впервые в этом году родился детеныш редкой островной куфии — ядовитой змеи…
Рост заболеваемости корью, краснухой и коклюшем в России связан с отказом от вакцинации. Такие данные…
В Московском политехническом университете 4 июня 2025 года подведены итоги первого этапа Международного конкурса научных,…