Даже люди со специальными навыками не смогли распознать до 27 % аудиозаписей, сгенерированных нейросетью на основе реальных голосов. К такому выводу в ходе эксперимента пришли исследователи из Университетского колледжа Лондона (UCL), сообщает в четверг ТАСС.
Как отмечают ученые, наряду с развлекательными и полезными функциями стремительно развивающиеся нейросети также несут в себе определенную угрозу. И правительства стран должны выработать стратегию и методы по борьбе с использованием технологий ИИ в неправомерных целях.
Опасность нейросетей стала очевидна в ходе поставленного опыта, в котором около пятисот носителей английского и китайского языков посчитали подлинной каждую четвертую искусственную аудиозапись голоса. Причем до эксперимента каждый участник тренировался в распозновании дипфейков – вероятно, в случае с неподготовленными людьми процент ошибок оказался бы еще выше.
Ранее мы рассказывали, что нейросеть GPT-3 справилась с логическими задачами наравне со студентами и продемонстрировала способность «мыслить».
На Сочи обрушились залповые дожди с грозой и градом. Это стало причиной привело образования нескольких…
Более 70% участников голосования в проекте «Активный гражданин» выступили за преобразование монорельсовой линии в уникальное…
Средняя температура в Краснодаре за 25 лет выросла на 9°C из-за сокращения зеленых зон и…
Белгородская область сократит популяцию диких кабанов для предотвращения вспышек африканской чумы свиней Власти Белгородской области…
Новый туристический объект появился в поселке Терновый Тбилисского района Краснодарского края при поддержке Минсельхоза России.…
Дачные постройки с фундаментом подлежат обязательной регистрации в Росреестре — без этого ими нельзя распоряжаться,…