МАСШТАБУВАННЯ ОБЧИСЛЕНЬ ПІД ЧАС ГЕНЕРАЦІЇ ЯК УНІВЕРСАЛЬНИЙ ПРИНЦИП ДЛЯ ГЕНЕРАТИВНИХ МОДЕЛЕЙ

DOI: 10.31673/2412-4338.2025.048926

  • Бондар Віталій Володимирович (Bondar Vitalii) Черкаський державний технологічний університет, м. Черкаси https://orcid.org/0009-0002-3230-5979
  • Бабенко Віра Григорівна (Babenko Vira) Черкаський державний технологічний університет, м. Черкаси https://orcid.org/0000-0003-2039-2841
  • Козлов Дмитро Євгенович (Kozlov Dmytro) Державний університет інформаційно-комунікаційних технологій, Київ, Україна https://orcid.org/0009-0007-1454-9036

Анотація

Протягом останнього десятиліття покращення продуктивності нейронних мереж досягалося переважно через масштабування обчислювальних ресурсів під час навчання. Проте вичерпання доступних даних та зростання енергетичних витрат створюють фундаментальні обмеження для цієї парадигми. Дослідження спрямоване на виявлення спільних принципів альтернативного підходу – масштабування обчислень безпосередньо під час генерації, коли додаткові ресурси виділяються на етапі використання моделі. Роботу присвячено аналізу концептуальних аналогій між ітеративними процесами уточнення в різних архітектурах генеративних моделей. У великих мовних моделях масштабування реалізується через ланцюжок міркувань, де проміжні токени послідовно уточнюють представлення задачі. Дифузійні моделі досягають аналогічного ефекту через багаторазові кроки розшумлення, трансформуючи шум у структуровані дані. Моделі узгодження потоків використовують контроль точності інтегрування траєкторій між розподілами. Всі підходи об'єднує спільний принцип: виділення додаткових обчислень для послідовного уточнення трансформації імовірнісних розподілів. Дослідження встановлює, що за фіксованого бюджету, або обмеженості ресурсів, компактні моделі з додатковими обчисленнями під час генерації можуть перевершувати архітектури на порядок більші. Така стратегія забезпечує адаптивне виділення ресурсів залежно від складності запиту – властивість недосяжна при статичному масштабуванні. Аналіз обчислювальних графів виявляє лінійне масштабування витрат з кількістю ітерацій при степеневому зростанні якості. Результати формують теоретичну основу для розуміння масштабування під час генерації як універсального механізму підвищення продуктивності генеративних систем. Практичне значення полягає у зміщенні парадигми оптимізації від збільшення розміру моделей до інтелектуального розподілу обчислень, що відкриває шляхи для створення ефективніших систем в умовах обмежених ресурсів.

Ключові слова: машинне навчання, генеративні моделі, ланцюжок міркувань, дифузійні моделі, узгодження потоків, великі мовні моделі, масштабування, оптимальний розподіл ресурсів, обчислювальна ефективність.

Номер
Розділ
Статті