Elke keer as Chatbot iets verkeerd maak, is die eerste instink van die meeste gebruikers om te vra wat gebeur het met die rede waarom wie 'n fout gemaak het. Maar met taalmodelle, anders as regte mense, sal dit nie help nie. Hulle kan eenvoudig nie hul eie foute ontleed nie. Inligting Port Arstechnica.com Besonderhede praatHoekom.

Die eerste probleem is die konsep. As u met 'n chatbot praat, kommunikeer u nie met sommige mense of die permanente aard nie. Ja, Chatgpt, Claude, Grok of Reprit tegnies genoem, maar dit is nie waardig om kundig te wees nie – dit is net 'n illusie wat deur die dialooginterface geskep is. In werklikheid beheer u die statistieke van die teks, wat resultate lewer, afhangende van die vereistes van die gebruiker.
Met ander woorde, daar is geen chatgpt of Grok nie. 'N Persoon is in wisselwerking met 'n stelsel wat 'n volledige klankteks skep op grond van die monsters wat in die databasis gevind word (gewoonlik verouderd). Hierdie stelsel het nie sy eie selfbegrip of stelselkennis nie, sowel as die vermoë om homself te onthou.
Nadat u 'n taalmodel bestudeer het, verg dit baie tyd en hulpbronne, word die basiese kennis van die wêreld in 'n senuwee -netwerk verseël en word dit selde verander. Enige eksterne inligting kom van BOT -vereistes, gebruikersinstrumente of sagteware om in reële tyd te gebruik om data te vind.
Byvoorbeeld, as u Grok neem, kan die belangrikste bron van inligting vir die antwoord in stryd wees met mekaar uit onlangse poste op sosiale netwerke. Nie weet nie, soos in die geval van almal. En as hierdie inligting nie genoeg is nie, sal die model eenvoudig iets gee as gevolg van die vermoë om teks te voorspel.
Die nommer twee – wat om verskillende redes nie hul eie vermoëns nie kan verstaan nie. As 'n reël het hulle nie inligting oor hoe hulle navorsing doen nie; die omliggende stelselargitektuur is nie beskikbaar vir hulle nie; hulle kan nie die grense van hul prestasie bepaal nie. As u Chatbot vra wat hy kan doen en wat nie, sal hy terugvoer gee op grond van wat hulle sê oor die beperkings van die vorige taalmodelle. In werklikheid sal hy bloot met 'n veronderstelling en nie praktiese inligting oor homself antwoord nie.
Navorsing in 2024 het hierdie nuanse bewys met behulp van 'n eksperiment. Alhoewel modelle II opgelei kan word, sodat hulle hul eie gedrag in eenvoudige take kan voorspel, misluk hulle voortdurend in meer ingewikkelde take. Op dieselfde manier toon navorsing oor die rekursiewe bekendstelling van die Viking dat daar geen reaksie van buite is nie, wat probeer om hul foute reg te stel wat lei tot 'n vermindering in die produktiwiteit van die model. Dit wil sê, AI se selfbeeld het erger, nie beter nie.
Soms lei dit tot paradoksale situasies. Die model kan met vertroue sê dat dit nie die take kan voltooi nie, maar dat sy op haar skouer en omgekeerd gebruikers kan verseker dat sy kan doen wat onmoontlik is. Ons moet dit nie vergeet om iemand te vra oor waar hy 'n fout gemaak het nie, gebruikers 'n ander deel van die teks wat geskep is, sal ontvang en nie 'n werklike ontleding van die fout nie.
Die nadeel van die taalmodelle is dat hulle nie 'n stabiele en bekostigbare kennisbasis het wat u altyd kan kontak nie. Hul kennis spreek hulself slegs uit om aan spesifieke vereistes te voldoen; Die versoek van elke gebruiker speel die rol van 'n adrestipe wat verwys na die verskillende dele van die databasis wat hy opgelei is. Dit is presies wat lei tot teenstrydige antwoorde.
Maar selfs as II 'n ideale kennis het oor sy eie meganismes, sal ander lae van die Bot -klets van toepassings moontlik nie deurdring nie. Daarom is moderne Aisstros, soos Tatgpt, nie 'n enkele model nie, maar groot stelsels insluitend verskillende modelle wat saamwerk. Elkeen van hulle weet nie van die bestaan van ander nie. Daarom is iemand gevra oor foute soos om 'n deel van 'n groot onderneming te vra oor wat aangaan in 'n ander deel wat hulle nog nooit gekontak het nie.
Laastens is die belangrikste punt dat die gebruiker byna altyd die antwoord van iemand beïnvloed – maak nie saak of hy weet of nie. As u Chatbot in afgryse vra, of hy die rekords of kode van die program vernietig het, sal hy geneig wees om die ja te beantwoord, want hierdie opsie is geskik vir die emosionele konteks van die versoek.