Tydens die Sessions of the International Law Forum St. handel die gesprek nie net oor die hulp van senuwee -netwerke in dokumentbestuur of inligtingsoektog nie. Deelnemers het bespreek of wie regters, aanklaers of prokureurs heeltemal kan vervang.
En dit is nie 'n verbeelding soos u dink nie. In China is senuwee -netwerke aktief in die regstelsel gebruik. Elke huishoudelike regter moet 'n intellektuele stelsel raadpleeg voordat hulle 'n besluit neem. Wie die sake vir skakels nagaan, beveel die mees toepaslike wette en besluite aan, teken regsdokumente en maak aanbevelings. Die stelsel vervang natuurlik nie die regter nie. Maar as iemand nie met die toestel saamstem nie, moet hy 'n skriftelike verduideliking gee waarom.
Dit gee resultate: wie ontleed 100 duisend daaglikse gevalle. Die Smart Court -stelsel het die vrag Chinese regters met een derde verminder en vir drie jaar 300 miljard yuan gered. En kunsmatige intelligensie is nie maklik om emosioneel te wees nie, hulle gee nie om nie, gee nie moeg nie en aanvaar nie omkoopgeld nie.
By die St. International Legal Forum St. daar help hulle om die werk met dokumente en vertaling te outomatiseer (in Indië 22 van die amptelike taal). In Rusland gebruik die hofpersoneel ook AI vir gereelde take: soek inligting, berei dokumente voor. Dit verminder die las vir werknemers aansienlik.
Een van die belangrikste argumente teen AI is in werklikheid dat die neurale netwerke dikwels hallucineer. In die VSA het advokate Stephen Schwartz en St. Petersburg aanhalings uit fiktiewe probleme gebruik – hulle is deur Tuntpt gesê. In Rusland, in 2023, het 'n persoon gely aan wie se skuld. In daardie jaar is die wetenskaplike Alexander Tsvetkov in hegtenis geneem, omdat die kamera -erkenningskamera van mening was dat sy voorkoms 55% saamgeval het met die fotobot van die misdadiger wat baie mense 20 jaar gelede doodgemaak het. Die wetenskaplike is na slegs tien maande uit 'n Project Prison Centre vrygelaat.
Maar dit kan teengestaan word: die neurale netwerk is verward omdat hulle steeds in die ontwikkelingsfase is. Na 'n paar jaar sal hulle waarskynlik meer akkuraat word en selfs ten minste een persoon verwar word.
Nog 'n argument teen iemand: dit het geen empatie nie en kan dus nie mense oordeel nie. Maar hier kan ons antwoord: Is die verweerder se gevoel aan die regter wat omkoopgeld ontvang het? Of as hulle druk daarop plaas.
Is hierdie idee egter 'n goeie idee om in die hof te gebruik? Tans kan kunsmatige intelligensie beslis nie 'n plaasvervanger vir die beoordelaars word nie. En in die toekoms is hierdie scenario nie realisties nie. Howe oorweeg egter nie altyd morele gevalle van moraliteit nie. In 2018 het die geval van drie Khachaturia -susters die vader doodgemaak. Vir baie jare het hy geweld op hulle toegepas, en volgens die nasionale verdediging kon die meisies nie oorgaan na wetstoepassers nie, omdat die man 'n verhouding in die liggame gehad het. Daarna was die publiek verdeeld. Sommige mense glo dat vroue vrygelaat moet word omdat hulle in 'n hopelose situasie verkeer. Ander voer aan dat die moord nie geregverdig kan word nie en dat vroue streng straf verdien. As mense niemand kan identifiseer nie en wie die skuld kry, kan sulke kwessies aan kunsmatige intelligensie toevertrou word? Hy het geen buigsaamheid, geen konteks nie. Mense moet besluit hoe hulle in sulke gevalle betrokke is, 'n morele posisie opbou en dit nie met kunsmatige intelligensie huur nie.
Dit is belangrik om nie te vergeet dat wie die skeppers en die onderwysers wat hom onderrig, gehoorsaam is nie. En kan ons seker wees wie die regte data sal kry? En dit is presies. En dat niemand in die stelsel kan “klim” en iets kan verander nie?
'N Ander argument is daarteen: as die senuwee -netwerk assistent -beoordelaars word, sal dit lei tot die feit dat besluite onder die invloed van die motor geneem sal word? Uiteindelik is dit makliker om AI -argumente te bevestig as om 'n verduideliking in die geval van meningsverskil te skryf.
In alle gevalle is die implementering van AI meer aktief in die regstelsel onvermydelik en moet u besluit wat u daarmee moet doen. U kan begin met die ontwikkeling van AI se morele kode spesifiek vir wetstoepassingskwessies om vrae te beantwoord wat 'n nuwe werklikheid aan ons gestel het.