Розвиток штучного інтелекту продовжує привертати величезні інвестиції, проте популярні великі мовні моделі (LLM) поступово виходять на плато через технологічні обмеження застарілої архітектури. Для справжнього прориву індустрії потрібні нові рішення, здатні наділити машини мотивацією та цілепокладанням.
Про це повідомив директор департаменту штучного інтелекту у компанії Sponge Анар Лавренов в ефірі Юрія Романенка.
Коментуючи скепсис щодо стрімкого розвитку технологій, експерт підкреслив, що дії найбільших світових корпорацій свідчать про реальну цінність ШІ, а не про тимчасовий хайп.
"Я є абсолютним антиприхильником тези про те, що штучний інтелект – це бульбашка, про те, що це щось несуттєве. Навіть якщо ми звернемо зараз увагу безпосередньо на останні новини про те, як реагують компанії Microsoft, Spotify, і на те, що робить безпосередньо компанія Open AI всередині своїх відділів, це вже показує на те, що великі гравці розуміють абсолютно тренд. Не буде просити Сем Альтман технічний персонал компанії Open AI переходити на агентське кодування, якщо можна продовжувати писати все руками", – зазначив Лавренов.
При цьому він зауважив, що більшість користувачів помилково звужують весь спектр можливостей технології лише до роботи з текстом.
"Штучний інтелект не лише обмежується великими мовними моделями. LLM – це всього лише мовна модель через те, що вона представлена в інтернеті, де користувачі можуть написати певне повідомлення і отримати відповідь. Для багатьох штучний інтелект – це і дорівнює LLM, але насправді це не так. Тобто штучний інтелект працює не тільки за текстом, він може застосовуватися в робототехніці, в рекомендаційних системах, у космосі і так далі", – пояснив Лавренов.
Незважаючи на загальний інтерес, розробники стикаються з проблемою стагнації, коли кожна нова версія нейромережі не дає очікуваного стрибка у продуктивності.
"Зараз великі мовні моделі виходять на плато. Бенчмарки, які на цей момент показують результативність моделі, вони не сильно змінюються від однієї моделі до іншої. Тобто, коли кожна нова модель виходить, наприклад, Claude Opus 4.7, Claude Opus 4.6, Gemini 3.1, бенчмарки в них відносно однакові, тобто прориву немає. Навіть якщо пересічний користувач спілкується з LLM з різних питань, він не відчуває кардинального покращення, лише точкове", – зазначив експерт.
Головною причиною такого уповільнення є застаріла база, на якій будуються сучасні продукти від лідерів ринку. За словами фахівця, подальша модернізація існуючого коду даватиме все менш помітні результати, тому галузь потребує кардинально нових підходів.
"І в цьому є певна причина, чому це відбувається. Тому що LLM безпосередньо, неважливо, це Open AI, це Google, це Claude, Anthropic, вони всі використовують одну й ту саму архітектуру, якій вже скоро буде 10 років. Тобто вони всі будуються на архітектурі трансформерів, яка є досить старою. І архітектура трансформерів, вона має, очевидно, свої межі. Характеристики, які означають, що це плато – це безпосередньо сама архітектура. За великим рахунком, відмінності між Gemini, Claude, Grok і GPT моделлю, вони не настільки значні. Тобто кожне нове оновлення, воно все менш значне. І це зрозуміло, тому що код у моделі один і той самий, архітектура одна і та сама, дані з'являються відносно нові, але в них теж є плато. Але ти не можеш зробити прорив, скажімо, побудувати якийсь супервелосипед, якщо в тебе все так само є два колеса і дві труби. Ось свого часу, звичайно, з появою GPT 3.5 це був великий стрибок, тому що на зміну рекурентним моделям прийшли трансформери безпосередньо. Це, звичайно, був стрибок. Ми відразу побачили а ось цю магію спілкування. Зараз світ чекає нової архітектури", – пояснив Лавренов.
Щоб подолати ці межі та зробити наступний крок, розробники вже зараз працюють над створенням систем, які матимуть елементи людської психології та довгострокового планування.