ИИ звучит убедительно, даже когда несёт бред, — и в этом его главная опасность.
Артём КозоризАвтор Лайфхакера
истории с кабанчиком у чата вообще страшно спрашивать что-то по менталке. Скриншот: @Leonov_mr / XПроблема в том, что у бота нет ни диагноза, ни контекста, ни понимания, что происходит у вас за кадром. Он не отличит мимолётную хандру от клинической депрессии, а то и вовсе может сгенерировать «поддержку» в стиле «вам нужно просто собраться». А июньское исследование Стэнфордского университета вообще показало, что пять популярных «терапевтических» чат-ботов нередко поощряют опасное поведение и выражают предвзятое отношение к людям с психическими расстройствами.Так что если возникли серьёзные переживания — лучше обратиться к психологу или хотя бы позвонить на горячую линию поддержки. В вопросах психического здоровья экпериментировать не стоит.
2. Экстренная медицина и постановка диагнозов
Ночью почувствовали давление в груди, и первая же мысль — спросить чат-бота: «Это сердце или просто переел пиццы?» ИИ сразу же начинает раздавать советы, часто успокаивающие: выпейте антацид, поспите и понаблюдайте за симптомами.Однако ChatGPT может и ошибиться, и перестраховаться, что подтверждает публикация Вашингтонского университета. В тестах учёных ChatGPT-4 выдавал разные оценки риска инфаркта почти в половине случаев, несмотря на одинаковые симптомы. Разброс — от «ничего страшного» до «срочно в реанимацию». Едва ли такому «врачу» стоить доверять.Если симптомы острые — звоните 103 или отправляйтесь в приёмное. А когда настоящий врач поставит диагноз, чат-ботом можно будет воспользоваться для расшифровки непонятных медицинских терминов.
3. Диеты и нутрицитология
Составить ПП-меню на неделю с ChatGPT — дело пары кликов. Он дружелюбно подбирает «сбалансированный» рацион, приводит рецепты и подсчитывает калории. Но беда в том, что все цифры берутся «на глазок». На это прямо указывают исследователи в февральской публикации рецензируемого журнала Nutrients. Согласно их данным, ChatGPT-4 стабильно преуменьшает порции, недооценивает белок и микроэлементы, особенно когда еда на фото выглядит «обычной» — например, если изображены салаты, паста или запеканки. Добавьте к этому отсутствие сведений о ваших анализах, аллергиях и принимаемых лекарствах — и рекомендованный утренний смузи уже рискует вызвать дефицит железа или конфликт с антидепрессантом.Прежде чем следовать такому рациону, хотя бы проконсультируйтесь с нутрициологом — один раз, но основательно. Питание не та сфера, где стоит играть в угадайку. Бот не видит ваш организм — он просто делает вид, что всё знает.
4. Юридические консультации
Представьте: вы получили повестку, штраф или составляете договор — и первым делом пишете в чат: «Что делать, куда идти, какие права у меня есть?» Нейросеть отвечает подробно, с отсылками к законам, уверенным тоном и даже с готовыми шаблонами документов. Кажется, можно обойтись без юриста.
А вот реальный пример: на бота нельзя положиться даже в правке и переводе договоров. Скриншот: @tyanukjin / XНо тут начинается самое интересное: модель не знает досконально законодательства вашей страны, не учитывает местные нюансы и легко путает термины. Она может ссылаться на отменённые законы, подсовывать зарубежные реалии или вовсе выдумывать несуществующие статьи.Если вопрос серьёзный — от наследства до трудового спора, лучше обратиться к юристу, а не боту. Ошибки в документах могут во всех смыслах дорого обойтись.
5. Финансы и инвестиции
Хочется заставить деньги работать — и вы спрашиваете у ИИ-консультанта, куда вложиться в 2025 году. Он лихо раздает горячие советы — от покупки мем-коина до рефинансирования ипотеки «под мизерные проценты». Всё выглядит блестяще, пока не копнёшь глубже. Так, в тесте Investing in the Web, где ChatGPT ответил на 100 реальных вопросов о личных финансах, 29% ответов оказались неполными или вводящими в заблуждение, а ещё 6% — полностью неверными.А когда учёные из Эдинбурга и Оксфорда проверили ИИ-стратегии на 20-летней истории биржевых котировок, результат тоже оказался слабым. В периоды роста рынка алгоритмы зарабатывали меньше обычного индексного фонда, а во времена спадов теряли даже больше, чем если бы просто держали акции и не сбрасывали их.Финансовые решения требуют человеческой экспертизы. Лучше проконсультироваться со специалистом или хотя бы перепроверить данные на профильных ресурсах. Деньги не любят поспешных решений. Тем более основанных на советах того, у кого нет даже банковской карты.
6. Инженерные и строительные расчёты
Когда нужно определить нагрузку на перекрытие, подобрать арматуру или понять, выдержит ли стена бойлер, а спросить не у кого — многие из нас идут к нейропомощнику, и он бодро выдаёт формулы, коэффициенты и пояснения. Для далёкого от стройки человека всё смотрится правдоподобно, как советы от опытного проектировщика. Особенно когда чат ещё и уверяет, что «подойдёт с запасом».
Хочется верить, что инженеры скандального индийского моста не пользовались ChatGPT при проектировании. Фото: CNBCTV18Но не всё так гладко на самом деле. Ведь ChatGPT не видит ни ваш дом, ни материалы, ни климат, ни ошибки в постановке задачи. Алгоритм может спутать единицы измерения, забыть про коэффициенты безопасности, применить устаревшие нормы. А потом просто скажет: «Извините, я ошибся, давайте попробуем построить вашу террасу ещё раз».В строительстве и инженерных делах не бывает мелочей. Любые расчёты обязательно должны выполнять профильные специалисты.
7. Программирование и разработка ПО
Надо пофиксить баг, дописать скрипт или понять, как подключить библиотеку, — и мы снова идём к чат-боту. А он, как умудрённый опытом разработчик, жонглирует целыми кусками кода. Даже комменты добавит, как будто писал человек. Компилируется и вроде работает. Готово!Но под капотом может скрываться всё что угодно: уязвимость, некорректная логика, непроверенные зависимости. Модель не знает всех деталей вашего проекта, ограничений среды. Для опытного разработчика искусственный интеллект — удобный способ автоматизировать рутину. А вот новичок, решивший «с нуля сделать сайт с помощью ИИ», рискует собрать хрупкий «франкенкод», который завалится от любого чиха.Слепо доверять ChatGPT в программировании — это как, не вникая, списать чужую домашку по алгебре. Ошибки обязательно вылезут, но потом.
8. Кибербезопасность
Не открывается сайт? Хочется проверить, настоящий ли имейл от банка? Или не знаете, как защитить свой Wi-Fi? Конечно, чат-бот поможет и даст уверенные советы: поменяйте пароль, включите двухфакторную авторизацию, не переходите по ссылкам. Вроде всё по делу — как будто общаешься с толковым специалистом техподдержки.Дьявол же, как всегда, кроется в деталях. Нейросеть может не заметить фишинговый поддомен, не знает, что на том «безопасном» сайте уже год, как утечка данных, или вообще легко может посоветовать отключить защиту ради удобства. Свежая работа японских исследователей показала, что ChatGPT не отличает реальные уязвимости от выдуманных. В 97% запросов он выдаёт убедительные, но полностью выдуманные предупреждения об «уязвимостях» с фальшивыми кодами CVE, то есть пугает проблемой, которой на самом деле нет.Так что в вопросах безопасности лучше довериться специалисту — иначе одна ошибка может стоить всех данных.
9. Воспитание детей
Ребёнок закатывает истерику, не хочет делать уроки или требует 10-й мультик подряд — и вот вы в отчаянии взываете к помощи чат-бота. Ответ приходит быстро, ИИ ссылается на «современные подходы», предлагает техники позитивного подкрепления и даже даёт пример диалога. Читаешь и веришь: вот он, личный цифровой педагог, который писал методички вместе с Монтессори.

Как видите, на деле чат-боту нельзя поручить даже составление азбуки для дошколят. Скриншот: @dok_Strangel0ve / XОпасное заблуждение. Ведь ИИ не знает вашего малыша. Он не знает его темперамента и обстановки в семье. Советы могут быть противоречивыми, вырванными из разных культурных и возрастных систем. А главное — в воспитании не бывает универсальных решений. То, что поможет одному ребёнку, у другого вызовет протест или замкнутость.В чём в чём, а в таких вопросах лучше обращаться к педиатрам, психологам, педагогам. Или хотя бы к проверенным источникам вроде книг и подкастов с экспертной модерацией. И обязательно сверять советы с собственным здравым смыслом и реакцией ребёнка.А в каких вопросах вы уже обжигались с ИИ? Делитесь в комментариях — ваш опыт может спасти от ошибок других читателей.
Лайфхакер