В эпоху стремительного развития технологий искусственного интеллекта (ИИ) мир сталкивается с новыми этическими и правовыми вызовами. Недавний инцидент с компанией OpenAI, которая выпустила голосовой инструмент, подозрительно похожий на голос актрисы Скарлетт Йоханссон, вызвал бурю обсуждений. Хотя позже выяснилось, что это был не дипфейк, а голос нанятого актера, случай поднял важные вопросы о том, как наши изображения и голоса могут быть воспроизведены без нашего ведома или разрешения.
Что такое дипфейки и синтетические медиа?
Прежде чем углубиться в проблематику, важно понять разницу между дипфейками и синтетическими медиа. Синтетические медиа — это изображения, аудио или видео, созданные ИИ, но не имитирующие конкретного человека. Дипфейки, напротив, — это поддельные медиа, изображающие реального человека.
Технология, лежащая в основе обоих явлений, — это форма генеративного ИИ, использующая генеративно-состязательные сети (GAN) для имитации голоса, мимики и движений губ. Хотя дипфейки существуют уже некоторое время, технология быстро совершенствуется.
Например, Microsoft недавно продемонстрировала приложение VASA-1, способное создавать говорящую голову из одного изображения и короткого голосового клипа, включая естественные движения головы и мимику.
Законодательные меры и их ограничения
Многие страны, включая Великобританию, ЕС, Южную Корею, Китай и Канаду, уже приняли законы, запрещающие определенные формы дипфейков. Однако, несмотря на важность правовых рамок, в настоящее время мало внимания уделяется влиянию этих технологий на высшее образование.
Риски для образовательных учреждений
Дипфейки представляют особый набор рисков для образовательных учреждений:
- Кибербуллинг: Дипфейки могут использоваться для создания унизительного контента о студентах или сотрудниках, включая порнографию без согласия. Реалистичность дипфейков затрудняет опровержение их подлинности.
- Академическая нечестность: Фальшивые видео-рекомендации от известных личностей могут появиться в заявлениях о приеме, а технологии дипфейков могут использоваться для фабрикации исследовательских данных.
- Репутационный ущерб: Распространение дезинформации с помощью дипфейков может серьезно повредить репутации учебного заведения. Например, поддельное видео, на котором руководитель университета делает неуместные замечания, может подорвать общественное доверие.
Меры противодействия
Образовательным учреждениям необходимо предпринять следующие шаги:
- Обновление политик: Политики по борьбе с кибербуллингом должны быть обновлены, чтобы явно решать проблемы создания и распространения дипфейков.
- Повышение осведомленности: Образовательные программы должны учить студентов и сотрудников распознавать контент, созданный ИИ, и критически относиться к видео, которые они видят.
- Разработка планов кризисного управления: Учреждения должны иметь планы для быстрого реагирования на инциденты с дипфейками, включая стратегии коммуникации с заинтересованными сторонами и восстановления доверия.
- Критический подход: Признавая потенциальные преимущества технологии дипфейков (например, для создания иммерсивных учебных материалов), образовательные учреждения должны подходить к их использованию критически.
Потенциальные преимущества
Несмотря на риски, технология дипфейков может иметь и положительные применения в образовании:
- Создание иммерсивных учебных материалов
- Возможность для студентов участвовать в симулированных беседах с историческими фигурами
- Создание увлекательных лекций на основе заметок и фотографии
Баланс между инновациями и бдительностью будет ключевым фактором в обеспечении того, чтобы преимущества ИИ и синтетических медиа улучшали, а не подрывали образовательный опыт.
Образовательные учреждения должны быть готовы к потенциальным проблемам, которые могут возникнуть из-за возможности создания реалистичных поддельных видео любого человека всего за несколько кликов.