Как ИИ вводит в заблуждение туристов

Рост популярности генеративного искусственного интеллекта (ИИ) провоцирует распространение фейкового контента в туристической сфере. Ранее в Малайзии пожилая пара проехала три часа, чтобы посетить не существующую достопримечательность. Подробнее читайте в материале агентства Kazinform.

Алматыға келген туристерден түскен салық 91 млрд теңгеге жеткен
Фото: Kazinform

Путешествие в никуда

Малайзийская пара проехала три часа из Куала-Лумпура в штат Перак, чтобы посетить туристическое место, которое существует только в созданном искусственным интеллектом (ИИ) видео, сообщает South China Morning Post.

30 июня сотрудница одного из отелей в штате Перак написала в соцсетях, что в отель заселилась пожилая пара, которая спросила о канатной дороге, якобы находящейся поблизости.

Она объяснила, что такой достопримечательности не существует. Однако, по её словам, пара не поверила ей и утверждала, что видела видео, где телеведущая сама катается на этой канатной дороге и берет интервью у туристов об их поездке.

Сотрудница отеля объяснила, что видео было сгенерировано с помощью ИИ.

В ролике, который, как сообщается, был удалён из-за жалоб пользователей, «ведущая» канала под названием «TV Rakyat» рассказывает о путешествии на «Kuak Skyride» в городе Куак Хулу в штате Перак.

Фейковое чудовище

Как сообщает The Scottish Sun в Лох-Нессе, наняли команду экспертов, чтобы выявить фальшивые изображения чудовища, созданные с помощью ИИ.

Такая необходимость появилась после того, как «шутники» начали выдавать обработанные фотографии таинственного существа за настоящие свидетельства его существования.

В Loch Ness Centre сообщили, что получали поддельные изображения «горбов», якобы выступающих из воды. Однако теперь специально нанятые эксперты и консультанты проверяют, какие снимки были обработаны с использованием ИИ.

«Пожалуйста, не присылайте нам фотографии, созданные ИИ. Такие снимки не будут интересны. Наш долг — сохранить какую-то целостность, а не продвигать что-либо, созданное искусственным интеллектом для привлечения внимания», - заявила Нагина Ишак, управляющая популярным туристическим объектом.

Она добавила, что никто не приходил с фотографией настоящего монстра или плезиозавра, но иногда на снимках бывает горб или поверхность, которые подверглись изменению с помощью технологий.

Статьи с оговоркой

В 2024 году оператор веб-сайта, запущенного для продвижения туристических достопримечательностей японской префектуры Фукуока, принёс извинения после того, как выяснилось, что сгенерированные ИИ статьи на портале описывали несуществующие туристические места, сообщает The Mainichi.

Ошибочные статьи были размещены на сайте «Fukuoka Tsunagari Ouen», который продвигал совместные кампании частного и государственного сектора.

В одной из статей о городе Фукуока упоминался несуществующий объект под названием «Uminaka Happiness World». Также был представлен парк аттракционов «Kashii Kaen Sylvania Garden», который на самом деле был закрыт ещё в 2021 году.

В статье о городе Кога упоминались места, не имеющие к нему отношения. Кроме того, был назван «сашими сет из Коги» как популярное блюдо среди туристов — хотя такого блюда вообще не существует.

При этом статьи были опубликованы с оговоркой:

«Данная статья сгенерирована ИИ на основе информации из интернета, и мы не гарантируем её точность. Пожалуйста, обратите внимание, что информация может быть ошибочной или изменена».

Сайт был запущен 1 ноября 2024 года. Поток критики и обеспокоенных комментариев в соцсетях заставил оператора опубликовать 7 ноября официальное извинение. В нём говорилось, что статьи были созданы генеративным ИИ и «прошли проверку человеком». 14 ноября власти Фукуоки официально отозвали свою поддержку сайта.

Уже предупреждали

Еще в июне 2024 года в Booking.com предупреждали о резком росте количества туристических мошенничеств, спровоцированном развитием ИИ, согласно BBC.

Тогда глава отдела интернет-безопасности компании Марни Уилкинг заявила, что за 18 месяцев число таких случаев выросло на 500–900%.

По ее словам, особенно заметный рост фишинга (когда людей обманным путем заставляют предоставить свои финансовые данные) произошел после того, как на рынке появились инструменты ИИ, такие как ChatGPT.

«Конечно, фишинг существует с начала эпохи электронной почты, но резкий рост начался после запуска ChatGPT», — сказала она.

Мошенники часто выбирают такие платформы, как Booking.com и Airbnb, потому что на них пользователи могут самостоятельно размещать объявления об аренде жилья. После того как человек оплачивает бронирование, мошенники либо просто исчезают, не оставляя шанса на возврат средств, либо продолжают выманивать деньги.

Как заявила Уилкинг, ИИ делает такие мошенничества гораздо более реалистичными — он может создавать убедительные изображения и точные тексты на разных языках.

Несмотря на критику того, как мошенники используют ИИ, она отметила, что эта технология также позволяет Booking.com быстро удалять фальшивые объявления.

Ранее сообщалось, что американский стриминговый сервис Netflix впервые использовал визуальные эффекты, созданные генеративным искусственным интеллектом (ИИ).

Сейчас читают