ChatGPT не выходит за рамки. Он обучен на базе текста. Он не может выйти за пределы этой базы. Он будет "придумывать" только то, что внесли в него программисты, то, чему его "обучили". Тут не идет речи даже о интеллекте, это просто качественное машинное обучение. Это не мозг, это не интеллект. Это простой набор алгоритмов, к сожалению. А общественность делает из этого не знаю что
Это гипотеза стохастического попугая, наверное? Есть критика, например вот:
1 Large Language Model Psychology The Stochastic Parrot Hypothesis is debatable for the last generation of LLMs This post is part of a sequence on LLM Psychology. wrote the details section in argument 3 and the other weird phenomenon. The rest is written in the voice of Intro Before diving...
telegra.ph
(Дальше просто моё мнение, может быть глупое)
Вообще может быть это зависит от того, что значит выйти за рамки. Чтобы предсказывать текст по идее нужно иметь какую-то модель мира и как-то применять её. Если обобщать и усреднять / смешивать, то это выход за рамки или нет?
Орки статистически зелёные
Орки статистически похожи на живое существо и персонажа
Персонаж может учиться в школе (обучения орка в школе не было в обучающей базе)
И всё дальше и дальше - более абстрактно применяя сложившеся части картины мира к другим частям. Я не знаю какое несоответствие обучающим данным это выход за рамки, а какое - нет.
Может быть для интеллекта нужно - нахождение паттернов, смешивание и то что в GPT в качестве системы 1, какая-то более абстрактная логика рядом, чтобы давать ей задачи и обучение, чтобы понимать чего именно в картине мира не хватает.
GPT не может сам учиться, ещё от этого может показаться таким попугаем, но он наверное может сказать каких данных ему не хватает.
Понимаешь, это даже противоречит самой логике II - потому что, чтобы делать интеллект, нужно знать, как он устроен.
Ну мы по идее изучаем другие вещи и можем теоретизировать на эту тему. Не обязательно нельзя понять себя. Мы же изучаем другие вещи. Ещё мы можем придумать интеллект, было бы странно, если бы не существовало устройств интеллекта, которые мы не способны понять, наверное если бы инопланетяне с ИИ прилетели - мы бы в конце-концов могли понять как работает ИИ на примере, а если так, то ИИ будто то, что мы не можем принципиально понять.
Ну и третий вариант:
Мы очень слабо представляем как работает ChatGPT, он обучается на данных и это своего рода эволюция и случайность. Текст строит то, что его пишет. Возможно это самое непонятное для нас в мире из всего, к чему мы приложили свою руку. Мы запустили процесс, а дальше многое (и конктретные решения внутри него) - это непонятно.
Задача - предскажи следующий токен в тексте - это задача для которой нужен ИИ, чтобы предсказывать интеллекты максимально хорошо - нужно быть интеллектом, причём намного умнее исходного. Мы просто даём больше данных, больше нейронов и чисто из-за этого получаем результаты всё лучше и лучше, оно будто бы готово масштабироваться во многом просто от этого.