Изменяемый искусственным интеллектом контент угрожает доверию к науке, заявила профессор Оксфордского университета Сибель Эрдуран.
Опросы показывают, что от 33% до 50% граждан США уже не могут отличить измененный контент от реальности. Британская исследовательница считает, что этот фейковый контент вредит ценности научных исследований. С развитием искусственного интеллекта (ИИ) дипфейки стали обычным явлением.
Дипфейки — это измененные изображения, видео и аудиоклипы, часто созданные с помощью ИИ. Со временем дипфейки становятся более убедительными, что затрудняет различение фактов и вымысла. Распространение дипфейковых медиа угрожает целостности научных исследований, на которые люди полагаются для разработки новых технологий, принятия решений и понимания нашего мира.
Об этом предупреждает нас в своей недавней статье Сибель Эрдуран, профессор естественнонаучного образования и директор по исследованиям Оксфордского университета.
Эрдуран, в частности, заявила: «Наука требует доверия: доверия к данным, методам и выводам, полученным в результате научного исследования. Такое доверие уже порой нарушается, даже при отсутствии дипфейков». По словам исследовательниццы, множество научных журналов уже включают поддельные научные статьи, и в 2023 году более 10 000 научно-исследовательских статей были отозваны из-за фальшивого контента, присутствующего в них. Эрдуран утверждает, что научная честность уже находится под угрозой, однако дипфейки просто добавляют еще один уровень недоверия.
«Дипфейки еще больше угрожают доверию к науке, вводя возможность того, что данные, особенно визуальные, могут быть манипулированы такими способами, которые трудно обнаружить», - добавила исследовательница.
Эрдуран приводит различные примеры этой быстро растущей фальсификации, говоря, что технология дипфейков может использоваться для манипулирования или создания изображений, которые распространяют ложные выводы.
Она также предполагает, что видеозаписи с изображением уважаемых ученых могут быть изменены, чтобы заставить их говорить ложные или вводящие в заблуждение вещи. Это может быть особенно опасно, когда речь идет о манипулировании СМИ, связанными с такими проблемами, как общественное здравоохранение и изменение климата, говорит Эрдуран.
Эрдуран также считает, что, разрабатывая инструменты обнаружения дипфейков, мы сможем идентифицировать «тонкие признаки, которые генерируют технологии дипфейков, такие как несоответствия в чертах лица в видео».
Другой ответ на данный вызов — регулирование. Это можно сделать правительствам, разработав руководящие принципы и передовые методы для надлежащего использования этих технологий в контексте научных исследований и других аспектов жизни, требующих доверия (фото-mikemacmarketing/wikimedia).