Даже люди со специальными навыками не смогли распознать до 27 % аудиозаписей, сгенерированных нейросетью на основе реальных голосов. К такому выводу в ходе эксперимента пришли исследователи из Университетского колледжа Лондона (UCL), сообщает в четверг ТАСС.
Как отмечают ученые, наряду с развлекательными и полезными функциями стремительно развивающиеся нейросети также несут в себе определенную угрозу. И правительства стран должны выработать стратегию и методы по борьбе с использованием технологий ИИ в неправомерных целях.
Опасность нейросетей стала очевидна в ходе поставленного опыта, в котором около пятисот носителей английского и китайского языков посчитали подлинной каждую четвертую искусственную аудиозапись голоса. Причем до эксперимента каждый участник тренировался в распозновании дипфейков – вероятно, в случае с неподготовленными людьми процент ошибок оказался бы еще выше.
Ранее мы рассказывали, что нейросеть GPT-3 справилась с логическими задачами наравне со студентами и продемонстрировала способность «мыслить».
Президент России Владимир Путин выразил солидарность с позицией лидера США Дональда Трампа непосредственно о злоупотреблении…
Палеоклиматологи обнаружили недавно, что средневековая "черная смерть", то есть эпидемия чумы, была в том числе…
Палеогенетики из ЮАР и Европы в ходе исследований открыли неизвестную доселе популяцию древних людей, которая,…
Новый метод специального поиска атмосферных загрязнителей применили накануне в Северном Арктическом федеральном университете (САФУ). Он…
Если неподалеку перерабатывают мусор, страх за окружающую среду растет, а любой неприятный запах, стоит ему…
Российские исследователи разработали специальную комплексную методику непосредственно для оценки пластикового загрязнения прибрежных зон, которая будет…