ТРИРІВНЕВА АРХІТЕКТУРА ЗНАНЬ ЯК ІНСТРУМЕНТ МІНІМІЗАЦІЇ ЛОГІЧНОГО ДРЕЙФУ В ШІ-АСИСТОВАНИХ ДОСЛІДЖЕННЯХ
DOI: 10.31673/2412-4338.2026.019008
Анотація
У статті розглядається проблема «логічного дрейфу» та статистичних галюцинацій великих мовних моделей (LLM) у контексті фундаментальних наукових досліджень. Автором запропоновано та формалізовано метод індукованого розширення теорії штучного інтелекту (Induced AI-Theory Expansion, IAI-TE), заснований на трирівневій архітектурі знань: аксіоматичне ядро (A-Core), концептуальний кодекс (S-Template) та повна специфікація. Ключовою інновацією методу є перетворення генеративної здатності ШІ з джерела помилок на інструмент суворої дедукції через впровадження штучних фільтрів реальності. Розроблено протокол контролю непротиворечності (CE-Protocol), що забезпечує подвійну верифікацію: текстову (логічна когерентність) та символьну (розмірнісний аналіз). Практична апробація методу продемонстрована на прикладі повної дедуктивної реконструкції Темпоральної теорії Всесвіту (TTU) з компактного ядра обсягом 7,2 КБ. Експериментально підтверджено 100% успішність відновлення 47 базових рівнянь теорії при 23 ітераціях CE-Protocol, що доводить перехід від запам'ятовування до справжньої дедукції. Запропонований метод формує основу нової епістемологічної парадигми — AI-Resilient Science, де наукові теорії стають виконуваними алгоритмами, здатними до самовідновлення та масштабування без втрати логічної цілісності
Ключові слова: IAI-TE, штучний інтелект, наукова методологія, аксіоматичне ядро, когерентність теорій, LLM, логічний дрейф, AI-Resilient Science, темпоральна теорія Всесвіту (TTU), пост-книжкова наука, алгоритмічна епістемологія, протокол непротиворечності, самовідновлювані теорії
Список використаної літератури
- Ji Z., Lee N., Frieske R. et al. Survey of hallucination in natural language generation. ACM Computing Surveys. 2023. Vol. 55, No. 12. P. 1–38. DOI: 10.1145/3571730.
- Lemeshko A. Temporal Theory of the Universe – Minimal Memory Kernel (TTU_CORE_RECALL_v1.0). ResearchGate. 2024. DOI: 10.13140/RG.2.2.28830.40001.
- Marcus G. The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence. arXiv preprint. 2020. arXiv:2002.06177.
- Pearl J. Causality: Models, Reasoning, and Inference. 2nd ed. Cambridge: Cambridge University Press, 2009. 484 p.
- Wolfram S. Writings: On the symbolic and linguistic capabilities of large language models. Wolfram Media. 2023. URL: https://writings.stephenwolfram.com/ (дата звернення: 12.12.2025).
- Wilkinson M. D. et al. The FAIR Guiding Principles for Scientific Data Management and Stewardship. Scientific Data. 2016. Vol. 3, Article 160018. DOI: 10.1038/sdata.2016.18.
- Krenn M. et al. On Scientific Understanding with Artificial Intelligence. Nature Reviews Physics. 2022. Vol. 4. P. 761–769.
- Popper K. R. The Logic of Scientific Discovery. London: Routledge, 1959. 544 p.
- Kuhn T. S. The Structure of Scientific Revolutions. Chicago: University of Chicago Press, 1962. 172 p.
- Smaragdis E. et al. AI-Driven Knowledge Discovery and Representation in Scientific Domains. AI Magazine. 2023. Vol. 44(4). P. 1–15.
- Chen M. et al. Evaluating Large Language Models Trained on Code. arXiv preprint. 2021. arXiv:2107.03374.
- Berners-Lee T., Hendler J., Lassila O. The Semantic Web. Scientific American. 2001. Vol. 284(5). P. 34–43.
- Stanford Institute for Human-Centered Artificial Intelligence. AI Index Report 2024. Stanford University, 2024. URL: https://aiindex.stanford.edu/report/
- Vaswani A. et al. Attention Is All You Need. Advances in Neural Information Processing Systems. 2017. Vol. 30. P. 5998–6008.