Изкуственият интелект се оказа илюзия
Изследователи от Apple Computer Company казаха, че отговорите, предоставени от големи езикови модели (LLM) като ChatGPT, създават илюзията за интелигентност, без да са резултат от реални логически разсъждения. Статия с резултатите от изследването е публикувана на сървъра за предпечат на arXiv.
Екипът се фокусира върху способността на интелигентните същества, включително хората, да правят разлика между важна и маловажна информация в ситуации, които изискват логичен анализ.
Изследователите предполагат, че истинската интелигентност включва способността да могат да се игнорират неуместни данни и да се фокусира върху същността на въпроса, какъвто е случаят с човешкото мислене.
За да тестват тази хипотеза, изследователите са включили малко количество външна информация в своите въпроси за LLM.
Те са задали стотици въпроси, използвани преди това за тестване на езикови модели, добавяйки допълнителни данни, които не са били свързани с темата.
Резултатите от експеримента показват, че LLM често се объркват с ненужни подробности, което води до неправилни или безсмислени отговори на същите въпроси, на които моделите преди това са отговорили правилно.
Това, според изследователите, показва, че LLM-ите нямат способността наистина да разбират и да мислят рационално.
По време на проучването е установено, че LLM са склонни да дават отговори, които са правдоподобни на пръв поглед, но при по-внимателно проучване се оказват неверни.
Например, когато LLMs са попитани какво „чувстват“, моделите дават отговори, които предполагат, че имат съзнателни усещания, което не е вярно, тъй като те нямат сензорни способности.
Въз основа на тези данни изследователите стигат до заключението, че съвременните езикови модели не притежават истинска интелигентност, а само идентифицират модели в текстовете и конструират отговори въз основа на статистическа обработка на данни.