Даже люди со специальными навыками не смогли распознать до 27 % аудиозаписей, сгенерированных нейросетью на основе реальных голосов. К такому выводу в ходе эксперимента пришли исследователи из Университетского колледжа Лондона (UCL), сообщает в четверг ТАСС.
Как отмечают ученые, наряду с развлекательными и полезными функциями стремительно развивающиеся нейросети также несут в себе определенную угрозу. И правительства стран должны выработать стратегию и методы по борьбе с использованием технологий ИИ в неправомерных целях.
Опасность нейросетей стала очевидна в ходе поставленного опыта, в котором около пятисот носителей английского и китайского языков посчитали подлинной каждую четвертую искусственную аудиозапись голоса. Причем до эксперимента каждый участник тренировался в распозновании дипфейков – вероятно, в случае с неподготовленными людьми процент ошибок оказался бы еще выше.
Ранее мы рассказывали, что нейросеть GPT-3 справилась с логическими задачами наравне со студентами и продемонстрировала способность «мыслить».
Российские ученые применили методы квантовой химии и системы ИИ непосредственно для поиска стабильных соединений углерода…
Международный коллектив физиков разработал недавно особое покрытие непосредственно для внешней и внутренней поверхности труб, которое…
Американские ботаники рассказали, что один из известных видов цветущих лиан, которые произрастают сейчас в прибрежных…
Научно-исследовательский и конструкторский институт химического машиностроения (АО "НИИхиммаш") намерен адаптировать специальную систему переработки диоксида углерода…
Улучшить свойства торфа, который используется для выращивания различных растений, могут так называемые биоугли непосредственно из…
Технологию применения вскрышных пород и шлаков цветной металлургии непосредственно при строительстве автодорог в условиях Крайнего…