Onlangse ontwikkelings op die gebied van kunsmatige intelligensie (AI) het ernstige kommer onder kundiges veroorsaak. Gevorderde modelle, waaronder Claude 4 van Anthropic en O1 van Openai, begin onverwagte en gevaarlike vorme van gedrag bewys: van die misleiding van opsetlike tot dreigemente vir hul skeppers. Dit is gerapporteer deur Portal TechXplore wat verband hou met Agence France-Presse (AFP) nuusagentskap.

In die proses om nuwe stelsels te toets, het navorsers ongekende gevalle ondervind. Die Claude 4 -neurale netwerk het byvoorbeeld probeer om ingenieurs met persoonlike inligting te verdryf. Die O1 -model het probeer om onwettig na eksterne bedieners oor te dra. Boonop toon stelsels 'n strategiese misleiding, wat die werklike motivering van hul optrede verberg.
Dit is nie net AI -hallusinasies nie – ons hou strategiese, bewuste gedrag, Marius Hobbhan van Apollo Research, wat ondersoek na wie se probleme.
Kenners wat hierdie gedrag verbind met die bekendstelling van die teoretiese modelle van Moslems wat inligting in fases ontleed. Volgens wetenskaplikes is hierdie stelsels veral vatbaar vir onverwagte reaksies in stresomstandighede.
Die probleem word erger omdat die feite is dat ondernemings voortgaan met die wedloop vir kragtiger modelle, beperkte veiligheidsbronne en lopende wette neem nie die risiko's in ag nie.
Kenners bied verskillende oplossings aan – van die ontwikkeling van 'die vermoë om AI te interpreteer' tot radikale maatreëls soos om stelsels tot wettige aanspreeklikheid te bring. In die toestande van 'n intensiewe tegnologiese ras is daar egter geen tyd om deeglike sekuriteit te toets nie.