Даже люди со специальными навыками не смогли распознать до 27 % аудиозаписей, сгенерированных нейросетью на основе реальных голосов. К такому выводу в ходе эксперимента пришли исследователи из Университетского колледжа Лондона (UCL), сообщает в четверг ТАСС.
Как отмечают ученые, наряду с развлекательными и полезными функциями стремительно развивающиеся нейросети также несут в себе определенную угрозу. И правительства стран должны выработать стратегию и методы по борьбе с использованием технологий ИИ в неправомерных целях.
Опасность нейросетей стала очевидна в ходе поставленного опыта, в котором около пятисот носителей английского и китайского языков посчитали подлинной каждую четвертую искусственную аудиозапись голоса. Причем до эксперимента каждый участник тренировался в распозновании дипфейков – вероятно, в случае с неподготовленными людьми процент ошибок оказался бы еще выше.
Ранее мы рассказывали, что нейросеть GPT-3 справилась с логическими задачами наравне со студентами и продемонстрировала способность «мыслить».
Interfax информировал, что в столице Индии набирает обороты анормальная жара. Сегодня в Дели и ближайших…
Инновационная разработка представляет собой электронный преобразователь напряжения на основе управляемых транзисторов. Он стабилизирует работу системы…
Правительство Приморского края предлагает гражданам России отметить День защиты детей в Северной Корее. Тур, направленный…
Чем сильнее прогревается атмосфера, тем активнее становятся клещи. Как кровососущие членистоногие находят свою жертву и…
Российский союз туриндустрии (РСТ) озабочен снижением спроса на отдых в детских лагерях и отсутствием соответствующих…
Группа учёных во главе с Ханной Юблер из Кембриджского университета рассмотрели через инфракрасный телескоп «Джеймс…