3.64 BYN
3.02 BYN
3.54 BYN
Ловушка ИИ: туристы блуждают по выдуманным городам и ищут несуществующие достопримечательности

В эпоху, когда смартфон заменяет путеводитель, искусственный интеллект стал незаменимым помощником для миллионов путешественников. ChatGPT, Microsoft Copilot и Google Gemini - эти инструменты обещают персонализированные маршруты, экономию времени и вдохновение за секунды.
Но за удобством скрывается темная сторона: ИИ может "галлюцинировать" и отправлять туристов в места, которых не существует. Как сообщает BBC, такие ошибки уже привели к разочарованию и реальным рискам для жизни.
Представьте: вы планируете поездку в Перу, и чат-бот советует посетить загадочный город Маркаваси - древние петроглифы на высоте 4 тыс. м. Звучит заманчиво! Только вот Маркаваси как туристический объект - чистая выдумка ИИ, слепленная из фрагментов реальных данных. Туристы, доверившиеся совету, рискуют заблудиться в Андах без гида, кислорода и связи.
"Высота, климатические изменения и доступность маршрутов должны быть спланированы. Используя программу вроде ChatGPT, которая объединяет изображения и названия для создания фантазий, можно оказаться на высоте 4 тыс. м без кислорода и мобильной связи", - предупреждает Мигель Анхель Гонгора Меса, основатель и директор Evolution Treks Peru.
Еще один абсурдный пример - "Эйфелева башня в Пекине". ChatGPT уверенно направил путешественников к этой "достопримечательности", которой, конечно, нет.
По данным опроса Skyscanner, 30 % международных туристов уже используют генеративный ИИ для планирования, включая специализированные сервисы вроде Wonderplan и Layla. Эти инструменты экономят часы на поиск, но когда ИИ ошибается, урок выходит дорогим: прибытие в пункт, где ничего нет, кроме пустоты и сожалений.
Почему так происходит и можно ли с этим что-то сделать?
Проблема коренится в природе ИИ. Крупные языковые модели анализируют терабайты текста и генерируют ответы на основе вероятностей, а не фактов. Иногда это дает точные подсказки, но часто - "галлюцинации": правдоподобные, но вымышленные детали, неотличимые от реальности. Пользователи не видят предупреждений - ИИ подает фантазию так же уверенно, как истину.
Подобные инциденты множатся. В статье Fast Company описан случай пары, обманутой видео в TikTok: они преодолели сотни километров до "живописной канатной дороги Kuak Skyride" в Малайзии, только чтобы обнаружить, что аттракцион сгенерирован ИИ для набора просмотров. Видео выглядело идеально, но реальность оказалась обычной трассой в никуда.
Это не случайность, а тенденция: ИИ размывает границы мира, особенно в соцсетях.
Шире контекста - тревожные новости от YouTube. Создатели контента жалуются, что платформа незаметно редактирует видео с помощью ИИ: меняет одежду, волосы, лица реальных людей без разрешения.
Границы между аутентичным и "отшлифованным" стираются, и путешественники - первые жертвы. Фейковые изображения вдохновляют на поездки, которые оборачиваются провалом.
Регуляторы пытаются вмешаться. В ЕС и США предлагают водяные знаки для ИИ-контента - метки, сигнализирующие о генерации или редактировании. Это поможет с фото и видео, но чат-боты в реальном времени останутся "серой зоной". Эксперты скептичны: внедрение правил - сложная задача, а галлюцинации никуда не денутся.
ИИ - это революция в туризме, но без критического мышления она превращается в иллюзию. Планируете поездку? Начните с вопросов, а не слепой веры в алгоритм. В конце концов, настоящее приключение - это не фантазия, а реальность, которую стоит проверить.