Исследование: люди не смогли отличить ИИ-видео от реальных
Люди с трудом отличают снятые на камеру видеозаписи от роликов, сгенерированных Sora от OpenAI. Об этом сообщает Vareity.
В ходе опроса HarrisX, проведенного через несколько недель после презентации ИИ-модели, большинство респондентов неверно определили автора видео.
Участники опроса выразили мнение, что власти США должны принять закон, требующий маркировать контент, созданный ИИ. Они также заявили о необходимости регулирования всех форматов, включая видео, изображения, текст, музыку, субтитры и звуки.
Кроме того, ИИ-видео вызывает очень много вопросов, исходя из потенциальной опасности дипфейков.
«По мере того, как растет сложность генеративного ИИ, растет и озабоченность его влиянием. Увеличивается число призывов к надлежащей маркировке и регулированию этой технологии. Индустрия должна прилагать больше усилий как для создания барьеров от мошенников, так и для правильного информирования аудитории о своих действиях и целях», — сообщил глава исследовательского отдела HarrisX Дритан Нешо.
Когда респондентам рассказали, какие видеоролики созданы нейросетью, их попросили описать свои эмоции. Реакции распределились следующим образом:
- любопытство — 28%;
- неуверенность — 27%;
- тревога — 18%;
- вдохновение — 18%;
- страх — 2%.
Хотя коммерческая версия Sora еще не запущена, она уже вызвала опасения среди пользователей. По данным исследователей, наибольшее волнение испытывают сотрудники индустрии развлечений, поскольку инструмент может повлиять на число рабочих мест.
Напомним, OpenAI представила новую генеративную ИИ-модель Sora, способную преобразовывать текст в видео, в феврале.
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!