Даже люди со специальными навыками не смогли распознать до 27 % аудиозаписей, сгенерированных нейросетью на основе реальных голосов. К такому выводу в ходе эксперимента пришли исследователи из Университетского колледжа Лондона (UCL), сообщает в четверг ТАСС.
Как отмечают ученые, наряду с развлекательными и полезными функциями стремительно развивающиеся нейросети также несут в себе определенную угрозу. И правительства стран должны выработать стратегию и методы по борьбе с использованием технологий ИИ в неправомерных целях.
Опасность нейросетей стала очевидна в ходе поставленного опыта, в котором около пятисот носителей английского и китайского языков посчитали подлинной каждую четвертую искусственную аудиозапись голоса. Причем до эксперимента каждый участник тренировался в распозновании дипфейков – вероятно, в случае с неподготовленными людьми процент ошибок оказался бы еще выше.
Ранее мы рассказывали, что нейросеть GPT-3 справилась с логическими задачами наравне со студентами и продемонстрировала способность «мыслить».
Начало весьма длительной серии геомагнитных возмущений ожидается в нынешнюю пятницу из-за сформировавшейся непосредственно на Солнце…
Специалисты НИУ "МЭИ" создали небольшую мобильную гидроэлектростанцию, за счет которой можно получать электричество от течения…
Специалисты МГУ им. М. В. Ломоносова создали специальный наносенсор, способный определять содержание в воде одновременно…
Птицеводческая компания будет выплачивать 250 млн рублей непосредственно для возмещения вреда, причиненного местной реке Граевке…
Ученые в Томске придумали недорогой катализатор непосредственно для выделения водорода из сельскохозяйственных отходов, таких как…
Беспилотные летательные аппараты впервые были использованы для оценки запасов кормовой базы непосредственно для рыбы в…