ИИ обманывает туристов, заставляя их путешествовать по несуществующим местам: не попадитесь на фейки!

Сегодня искусственный интеллект (ИИ) используется для создания видеороликов, которые обманчиво привлекают путешественников в вымышленные локации. Недавно стало известно о паре, которая потратила несколько часов на дорогу, чтобы насладиться поездкой по канатной дороге на вершине горы, известной как Kuak Skyride. Они увидели в интернете видеоролик с улыбающимися туристами и восторженным телеведущим, рассказывающим об этой достопримечательности.
Однако, прибыв на место, они обнаружили, что реальность далека от увиденного. Их встретил небольшой городок и недоумевающие местные жители, которые ничего не знали о Kuak Skyride. Оказалось, что видео было сгенерировано с помощью ИИ, и пара искренне поверила в его подлинность.
«Зачем так обманывать людей?» – возмутилась пожилая женщина из Малайзии, узнав, что место ее мечты было создано искусственным интеллектом Veo3 от Google.
ИИ создает иллюзию реальности, и заставляет верить в фейковые видео и фото
По словам сотрудника отеля, к которому обратилась пара, пожилая женщина увидела видео в TikTok и поделилась им со своим мужем. Они были очарованы пейзажами и решили непременно прокатиться на канатной дороге. Видео было настолько убедительным, что показывало телеведущего, совершающего поездку и берущего интервью у довольных туристов. Однако они не обратили внимания на логотип Veo3 в углу экрана, указывающий на то, что видео было создано с помощью этой технологии.
Несмотря на комичность ситуации, она демонстрирует опасную сторону ИИ. В данном случае не было злого умысла, никто не пытался обманом заставить людей заплатить за поездку или предоставить ложную ссылку для регистрации. Тем не менее, этот случай показывает, как легко злоумышленники могут использовать подобные видео для неправомерных действий.
ИИ стирает границы между реальностью и вымыслом. Даже планирование отпуска требует от людей повышенной бдительности. Случай малазийской пары может показаться единичным, но он сигнализирует о необходимости критически оценивать все, что мы видим, слышим и переживаем в мире, где ИИ способен создавать что угодно с удивительной легкостью и точностью.
Сфера обмана, порожденная искусственным интеллектом, расширяется
Статистика подтверждает тенденцию к массовому погружению в цифровой обман. Количество дипфейковых атак выросло с 0,1% от общего числа мошеннических действий три года назад до примерно 6,5% в настоящее время, что составляет скачок на 2137%. Согласно отчету компании Signicat за февраль 2025 года, это соответствует каждому 15-му случаю мошенничества.
За этими цифрами стоят реальные жертвы. Например, 82-летний пенсионер Стив Бошам потерял все свои сбережения в размере 690 000 долларов, поверив дипфейковому видео с Илоном Маском, рекламирующим инвестиционную схему. «На видео был он», – заявил Бошам в интервью The New York Times. В результате этого обмана он лишился всех своих накоплений.
Обман с использованием ИИ проникает во все сферы жизни. Британская инжиниринговая компания Arup потеряла более 25 миллионов долларов после того, как сотрудник попался на удочку мошенников во время видеоконференции, на которой был представлен дипфейк с участием финансового директора и других сотрудников. Директору школы угрожали расправой после того, как в сети появилось сгенерированное ИИ видео, на котором он якобы делал расистские и антисемитские высказывания. Позже выяснилось, что видео было сфабриковано директором по легкой атлетике с целью дискредитации.
Еще до появления ИИ туризм был тесно связан с искусственно созданной реальностью. Социальные сети превратили путешествия в «селфи-туризм», когда люди посещают достопримечательности только для того, чтобы сделать эффектные фотографии для Instagram. ЮНЕСКО также выражает обеспокоенность тем, что туристы посещают знаковые места «преимущественно для того, чтобы сфотографироваться и поделиться снимками, часто на фоне известных достопримечательностей».