Нейросети могут распространять стереотипы о женщинах, детях, беженцах, коренных народах, людях с ограниченными возможностями и других, пишет Science.
В исследовании, опубликованном на страницах журнала, говорится, что основным источником, на котором обучаются модели искусственного интеллекта является информация из интернета.
По словам авторов, люди вполне могут воспринимать ответы нейросети как достоверные. Они отметили, что в таком случае, у человека может закрепиться ошибочное суждение.
В качестве примера приводятся данные нейросети, согласно которым, чернокожие ответчики в суде являются менее благонадежными.
Авторы выразили обеспокоенность, что практика вынесения приговоров у судей, ознакомившихся с данной моделью ИИ может измениться.
В связи с этим, в исследовании указывается на необходимость учить людей отличать фактические возможности новых технологий от воображаемых.
Ранее сообщалось, что ученые из Петрозаводского государственного университета и международные коллеги разработали новый метод расчета энтропии с использованием нейронной сети NNetEn. Подробнее об этом читайте в материале «ЭкоПравды».
Начало весьма длительной серии геомагнитных возмущений ожидается в нынешнюю пятницу из-за сформировавшейся непосредственно на Солнце…
Специалисты НИУ "МЭИ" создали небольшую мобильную гидроэлектростанцию, за счет которой можно получать электричество от течения…
Специалисты МГУ им. М. В. Ломоносова создали специальный наносенсор, способный определять содержание в воде одновременно…
Птицеводческая компания будет выплачивать 250 млн рублей непосредственно для возмещения вреда, причиненного местной реке Граевке…
Ученые в Томске придумали недорогой катализатор непосредственно для выделения водорода из сельскохозяйственных отходов, таких как…
Беспилотные летательные аппараты впервые были использованы для оценки запасов кормовой базы непосредственно для рыбы в…