Почти половина мирового объема частных инвестиций вкладывается в проекты разработки и развития искусственного интеллекта (ИИ). Но, как и другие технологии перед своим крахом, пузырь ИИ демонстрирует готовость лопнуть. 

Есть такая вещь, как «Efficient Compute Frontier» (граница эффективных вычислений). Это очень причудливый способ сказать, что обучение искусственного интеллекта (ИИ) имеет уменьшающуюся отдачу. Короче говоря, ИИ должен быть «обучен» на данных, и если вы хотите улучшить свой ИИ, вам нужно обучить его большему количеству данных, что требует большей вычислительной мощности. Однако связь между объемом данных обучения и производительностью не является линейной. Существует эффект убывающей доходности. Так, если удвоить объём обучающих данных для небольшого ИИ, производительность может увеличиться на 5%, но если затем ещё раз удвоить объём обучающих данных, производительность может увеличиться только на 1% и т. д.

Это не было бы проблемой, если бы обучение ИИ не было невероятно дорогим с точки зрения денег, энергии и инфраструктуры. В результате стоимость совершенствования ИИ растёт экспоненциально. Мы уже видим это ограничение в действии, поскольку последние модели OpenAI едва ли лучше предыдущих, несмотря на значительно большие тренировочные наборы данных и гораздо большие затраты.

Даже если бы наши нынешние технологии могли реально создать общий искусственный интеллект (ОИИ), создание такого ОИИ было бы чрезмерно дорогим, если не сказать, что оно вообще невозможно, учитывая ресурсы, которыми располагает человечество.

Современный генеративный ИИ действительно способен на многое! Но он не создаёт никакого прироста производительности. Почему? Он просто недостаточно стабилен, и поэтому за ним должен следить квалифицированный специалист, что обходится примерно столько же, сколько и найм специалиста для выполнения той же работы. Это стало настолько распространённой проблемой, что банки и технологические гиганты, вложившие миллиарды долларов в ИИ, теперь серьёзно обеспокоены своими инвестициями.

Именно здесь возникает гипотеза Флориди. Лучано Флориди - профессор Йельского университета и директор-основатель Центра цифровой этики. В своей недавней статье Флориди выдвинул гипотезу, что системы ИИ могут либо иметь сложную область применения, но не обладать достаточной точностью, либо применяться в узкой области и иметь большую точность. Важно отметить, что гипотеза Флориди утверждает, что ИИ абсолютно не может одновременно иметь сложную область применения, такую как вождение автомобиля, где ИИ должен решать множество задач, и большую точность.

По-другому это можно сформулировать так: по мере расширения сферы применения ИИ он всегда будет становиться менее точным и будет выдавать аномальные результаты (по глупости называемые "галлюцинациями"). Флориди не просто взял эту идею из воздуха. Она основана на математическом описании функционирования нейронных сетей.

Гипотеза Флориди гласит, что независимо от объема дополнительных данных, обучения или оптимизации нейронной сети, всегда будет существовать компромисс между масштабом и надежностью. Другими словами, не имеет значения, сколько миллиардов долларов Маск вложит в разработку FSD — поскольку в нем отсутствуют какие-либо попытки ограничить задачи ИИ, он всегда будет страдать от ошибочных результатов, быть ненадежным и, в конечном счете, небезопасным.

Итак, когда этот пузырь лопнет, это нанесет огромный ущерб всем этим странным техническим гениям и токсичным финансистам. Но у них есть план, как увернуться от апокалипсиса. Квантовые компьютеры. И все они отчаянно хотят, чтобы мы присоединились к новому движению.

Фото: Rock'n Roll Monkey на Unsplash

Опубликовано автором: admin / Дата публикации: 23.09.2025