
GPT-modeller kan inte tänka som människor av flera anledningar:
Begränsningar i resonemang och förståelse
GPT-modeller saknar förmågan till djupare abstrakt tänkande och analogiskt resonemang som människor har1. Medan modellerna kan prestera bra på vissa analogiuppgifter, misslyckas de när problemen modifieras något, vilket tyder på att de förlitar sig mer på ytliga mönster än verklig förståelse1.
Avsaknad av sunt förnuft och världsförståelse
Till skillnad från människor saknar GPT grundläggande sunt förnuft och förståelse för hur världen fungerar4. Även små barn har en intuitiv förståelse för orsak och verkan som AI-system saknar4. GPT har ingen fysisk eller mekanisk förståelse för många aspekter av världen2.
Ingen inlärning under problemlösning
Människor omstrukturerar sina hjärnor genom tänkande och lär sig av misstag. GPT kan inte lära sig eller förbättras under användning efter att träningen är klar2. Det saknar förmågan att optimera sin problemlösningsförmåga över tid.
Begränsningar i träningsupplägget
GPT är begränsad till den data den tränats på och saknar förmågan att interagera med och lära sig från den fysiska världen som människor gör2. Den saknar också ”embodied cognition” som små barn utvecklar genom fysiska erfarenheter4.
Avsaknad av medvetande och känslor
GPT saknar medvetande, subjektiva upplevelser och känslomässig intelligens som är centrala aspekter av mänskligt tänkande58. Den kan inte uppleva qualia eller ha genuina känslor som människor gör8.
Sammanfattningsvis är GPT:s förmågor begränsade till statistiska mönster i text, utan den djupare förståelse, kreativitet och anpassningsförmåga som kännetecknar mänskligt tänkande.
Citations:
- https://www.sciencedaily.com/releases/2025/02/250221125814.htm
- https://www.lesswrong.com/posts/o8eMsxA7uHfybfmhd/the-limitations-of-gpt-4
- https://towardsdatascience.com/a-note-on-gpt-3-and-its-obviously-null-thinking-capabilities-de84a26ac0f3/
- https://www.lunduniversity.lu.se/article/ai-lacks-common-sense-why-programs-cannot-think
- https://www.forbes.com/sites/bernardmarr/2023/03/03/the-top-10-limitations-of-chatgpt/
- https://bigthink.com/thinking/artificial-intelligence-critical-thinking/
- https://www.snexplores.org/article/ai-limits-chatbot-artificial-intelligence
- https://www.legalbites.in/topics/articles/chatgpt-and-the-illusion-of-thought-can-machines-truly-think-like-humans-1081100
- https://www.sps.nyu.edu/homepage/metaverse/metaverse-blog/Thinking-with-AI-Pros-and-Cons-Language-Logic-and-Loops.html
- https://lawliberty.org/why-ai-cant-think/
- https://forum.effectivealtruism.org/posts/6dphu3p8d5mQZEZzk/intrinsic-limitations-of-gpt-4-and-other-large-language
- https://www.forbes.com/sites/roncarucci/2024/02/06/in-the-age-of-ai-critical-thinking-is-more-needed-than-ever/
- https://quantumzeitgeist.com/why-cant-gpt-think-like-us-study-reveals-ai-limitations-in-analogical-reasoning/
- https://www.newscientist.com/article/2468440-using-ai-tools-like-chatgpt-can-reduce-critical-thinking-skills/
- https://www.reddit.com/r/slatestarcodex/comments/1cskrcy/why_chatgpt_fails_to_interact_like_a_human/
- https://futurism.com/study-ai-critical-thinking
- https://www.vox.com/future-perfect/23971093/artificial-intelligence-chatgpt-language-mind-understanding
- https://gizmodo.com/microsoft-study-finds-relying-on-ai-kills-your-critical-thinking-skills-2000561788
- https://www.youtube.com/watch?v=wvupyiFq1Js
- https://humsci.stanford.edu/feature/study-finds-chatgpts-latest-bot-behaves-humans-only-better