Скрывая масштабы долга, компании часто применяют непрозрачное финансирование. Meta Platforms Inc (недаром ее деятельность признали террористической и экстремистской, запрещенной в России) создала компанию специального назначения (SPV) для строительства центров обработки данных, что позволяет держать многомиллиардные обязательства вне баланса.
Неочевидные трудности развития ИИ
Искусственный интеллект требует огромных вложений в центры обработки данных, инфраструктуру и энергетику. При этом цикл жизни ИИ-чипов довольно короток, от 3 до пяти лет. Дата-центры, построенные под устаревшую элементную базу, уже сейчас превращаются в бесполезные активы, их уже нужно перестраивать или искать им некое иное применение и изыскивать новые средства на обновление оборудования и строительство.
Падение цен на устаревшие активы несет большие риски для компаний, вкладывающих средства в искусственный интеллект, кредиторов и в целом финансовой системы. Эксперты говорят, что кризис, вызванный негативным развитием событий, может быть сопоставимым с 2008 годом, потери могут составить до 20 трлн долларов для американской экономики и сопоставимую сумму для экономик других стран. Мир и США к этому не готовы.
Стоит отметить, что этот риск более чем очевиден для специалистов по корпоративному управлению и финансам, я отнес его в эту категорию потому, что к нему не привлекают широкого общественного внимания. Не вписывается эта информация в радужную картину ИИ-бума.
Исчерпание естественных массивов данных для обучения ИИ
Еще один негативный момент связан с машинным обучением. Проблема в том, что на Земле закончились наработанные естественным интеллектом (человечеством) данные, на которых можно обучать ИИ. Все, что создавал человек на протяжении его истории, использовано в машинном обучении. Вернее, практически все, за некоторыми исключениями, вроде персональных данных или закрытых массивов. Чем это грозит?
Во-первых, замедлением прогресса ИИ. Без притока свежей качественной информации развитие грозит зайти в тупик.
Во-вторых, снижение качества работы. Обучаясь на недостаточном количестве данных, алгоритмы будут выдавать неточные и некачественные результаты.
В-третьих, возможна «монополизация массивов данных», когда крупные корпорации будут создавать собственные закрытые для массового сегмента объемы информации.
В-четвертых, рост числа «галлюцинаций», к искажению информации и возникновению предвзятостей.
И последнее, из того, что смог найти я: «при недостатке новых данных для обучения искусственного интеллекта модели могут деградировать. Это явление называется «модельный коллапс» (model collapse). С каждой новой итерацией генерируемые результаты становятся всё более шаблонными и искажёнными, теряя разнообразие и выразительность».
Эти проблемы Сэм Альтман предложил решить использованием синтетических данных. Говоря грубо, это информация, созданная ИИ для обучения иных ИИ. Только вот это ведет к нарастанию числа галлюцинаций и ошибок… Инженеры OpenAI на внутренних форумах для разработчиков жалуются, что при обучении с использованием сгенерированных данных резко возрастает объем галлюцинаций.
Для решения этих проблем исследователи рекомендовали разработчикам разбавлять синтетические данные созданными человеком. А где их взять, если массивы исчерпаны? Ну как-же, интернет, он-же постоянно пополняется новыми!
Только есть проблема. Новые данные все более «загрязнены» продуктами (чуть не сказал «жизнедеятельности»!) работы ИИ. И с каждым днем степень загрязнения только возрастает – пользователи все больше генерируют картинки, видео, обрабатывают фотографии, используют тексты, сгенерированные, а не написанные самими. В итоге, похоже, ИИ просто сам пожирает себя.