Artificial general Intelligence или почему LLM не стать AGI.
Существует идея о том, что современный обученный GPT, это некая форма полноценного ИИ, ведь он номинально проходит тест Тьюринга.
Но ведь, все эти LLM - по-сути научены на базе текста и картинок, у них нету абстрактного мышления ВНЕ символов, букв, словосочетаний и т.д.
Мысль существует в человеческом разуме совершенно обобленно и уже потом вербализируется / визуализируется, тогда как в LLM есть только текст, набор символов, слов и их сочетаний
Правильно ли я думаю, что это является ключевым в разграничении подлинного ИИ(абстрактное мышление вне языка и текста) и имитации на базе LLM?
Такая архитектура как LLM, имеет предел, который уже достигнут и вообще является тупиковой ветвью ИИ?