← Все новости

Галлюцинации ИИ: почему нейросети врут — мнение Владимира Крылова

Профессор Владимир Крылов анализирует причины участившихся ошибок нейросетей и объясняет, почему OpenAI проигрывает Google, а программистам пора осваивать «вайб-кодинг».

Галлюцинации ИИ: почему нейросети врут — мнение Владимира Крылова

Профессор математики Владимир Крылов, выступающий научным консультантом компании Artezio, представил критический взгляд на развитие нейросетевых технологий. По мнению ученого, широко обсуждаемые «галлюцинации» больших языковых моделей являются не досадной ошибкой разработчиков, а фундаментальной характеристикой самой архитектуры.

Математика ошибок и кризис лидерства

Особое внимание эксперт уделил так называемым reasoning-моделям, которые имитируют процесс человеческого рассуждения. Статистика показывает, что подобные системы выдают недостоверные данные в два раза чаще, чем стандартные алгоритмы. Такая закономерность математически неизбежна: чем длиннее цепочка логических выводов, тем выше вероятность накопления погрешности на каждом этапе формирования ответа.

На фоне этих технологических вызовов внутри OpenAI была объявлена ситуация «код красный». Создатель ChatGPT столкнулся с серьезным давлением со стороны Google, которая в последнее время демонстрирует более динамичные темпы развития. Это противостояние определяет вектор движения всего рынка генеративного интеллекта, заставляя разработчиков балансировать между скоростью выпуска обновлений и точностью работы систем.

Закат эпохи «ручного» кода

Трансформация ожидает и рынок труда в сфере IT. Эксперт предрекает исчезновение специалистов, чей навык ограничен исключительно написанием синтаксических конструкций без использования вспомогательных инструментов. Будущее принадлежит концепции vibe-coding, где акцент смещается с технической реализации на глубокое понимание архитектуры и умение грамотно формулировать запросы.

В качестве исторической параллели приводится пример Лучано Паваротти. Знаменитый тенор не владел нотной грамотой, но это не помешало ему стать иконой оперного искусства. Аналогично, инженеры будущего смогут создавать сложные программные продукты, не погружаясь в детали низкоуровневого написания символов, а используя естественный язык как основной способ взаимодействия с машиной.

Контекст: Почему ИИ продолжает ошибаться

Проблема ложных утверждений коренится в вероятностной природе нейросетей. Алгоритмы не обладают знаниями в человеческом понимании, а лишь предсказывают наиболее правдоподобное продолжение текстовой последовательности. Когда система пытается выстроить логическое доказательство, любая минимальная неточность в начале пути приводит к катастрофическому искажению финального результата. Попытки полностью избавить искусственный интеллект от вранья пока не увенчались успехом, так как это потребовало бы радикального изменения самих принципов машинного обучения.

Что это значит для индустрии

Для бизнеса это означает необходимость внедрения строгих протоколов верификации любого сгенерированного контента. Образовательный канал Ai4dev становится площадкой для освоения новых методов работы, а сама беседа, опубликованная в блоге ЛАНИТ, служит важным напоминанием: в эпоху автоматизации ценность человека смещается от механического исполнения к контролю и творческому видению.

Источник: Хабр