Даже люди со специальными навыками не смогли распознать до 27 % аудиозаписей, сгенерированных нейросетью на основе реальных голосов. К такому выводу в ходе эксперимента пришли исследователи из Университетского колледжа Лондона (UCL), сообщает в четверг ТАСС.
Как отмечают ученые, наряду с развлекательными и полезными функциями стремительно развивающиеся нейросети также несут в себе определенную угрозу. И правительства стран должны выработать стратегию и методы по борьбе с использованием технологий ИИ в неправомерных целях.
Опасность нейросетей стала очевидна в ходе поставленного опыта, в котором около пятисот носителей английского и китайского языков посчитали подлинной каждую четвертую искусственную аудиозапись голоса. Причем до эксперимента каждый участник тренировался в распозновании дипфейков – вероятно, в случае с неподготовленными людьми процент ошибок оказался бы еще выше.
Ранее мы рассказывали, что нейросеть GPT-3 справилась с логическими задачами наравне со студентами и продемонстрировала способность «мыслить».
Ученые «Газпром нефти» провели исследование природы в районе Северного морского пути. Они оценили популяции птиц…
Исследователи химического факультета Московского государственного университета имени М. В. Ломоносова применили лазерную плазму непосредственно для…
Ученые давно занимаются исследованием водяного льда и его разновидностей, чтобы объяснить его свойства. В журнале…
Геомагнитная обстановка непосредственно в период майских праздников ожидается достаточно спокойной, как сообщили накануне в лаборатории…
Сотрудники экологического фонда "Чистые моря" совместно с ведущими специалистами по морским млекопитающим Института проблем экологии…
Китайские ученые разрабатывают на данный момент технологии получения авиационного топлива непосредственно из углекислого газа. Как…