X 
Transnistria stiri: 1424
Eurovision stiri: 508
Preşedintele stiri: 4002

Diavolul stă în detalii. Ce pericol prezintă chatbots?

28 iun. 2023,, 10:00 (reactualizat 28 iun. 2023,, 20:05)   Analitică
5895 0

Primul model AI multitasking (AI), ChatGPT, a stabilit un record istoric de atragere a auditoriului, și în același timp a sporit neliniștea societății, prin acutizarea discuției despre potențialele pericole ale tehnologiilor informaționale bazate pe inteligența artificială.

ChatGPT poate crea un text realist, inteligent ca răspuns la solicitările utilizatorului, dar rezultatul este adesea imprevizibil. Ridică semne de întrebare exactitatea lui, dar și numărul mare de răspunsuri răutăcioase, înșelătoare și chiar ofensatoare. Totodată, service-urile care oferă posibilitatea generării textului sau a imaginii de multe ori au fost ținta hackerilor care doresc să obțină datele personale ale utilizatorilor.

Situația este complicată și de lipsa unei reglementări oarecare a acestui cerc de probleme – țările europene abia încep să elaboreze instrumentele juridice. La provocările ChatGPT și a modelelor lingvistice analoage se cugetă și în Moldova.

Experții cred că accesul la aceste service-uri trebuie limitat legislativ pentru un anumit cerc de persoane, aspre exemplu în sistemul educațional, iar pentru securitatea utilizării este important să fie adoptate legi care stabilesc reguli stricte de colectare și stocare a datelor utilizatorilor, precum și certificarea și licențierea obligatorie pentru creatorii și proprietarii acestor tehnologii.

Rețelele neuronale atacă


În ultimele luni s-a dezvoltat fulgerător chatbot-ul cu inteligența artificială ChatGPT. În traducere din engleză, abrevierea înseamnă «transformator generativ pre-antrenat» (Generative Pre-trained Transformer). Produsul a fost elaborat de compania OpenAI și poate funcționa în regim de dialog, ce susține solicitări în limbaje naturale. Spre deosebire de majoritatea chatbots, ChatGPT monitorizează starea utilizatorului, memorizează întrebările precedente și răspunsurile date în aceeași discuție.

ChatGPT este un model lingvistic mare, pentru antrenarea căruia au fost utilizate metode de studiu cu profesori. Oamenii-antrenori jucau ambele părți: a utilizatorului și a ajutorului pentru inteligența artificială. Grație instruirii pe un număr mare de texte și dialoguri de înaltă calitate, create de om, autorii au obținut un nivel nou de utilitate și coerență a prezentării informației pentru chatbot. În rezultat, a devenit posibilă generarea unui text detaliat și asemănător celui uman.

ChatGPT a fost lansat la 30 noiembrie, 2022 și a atras atenția prin posibilitățile sale vaste. Printre acestea, scrierea codului, crearea textelor, posibilitatea traducerii, obținerii unor răspunsuri exacte și folosirea contextului dialogului pentru răspunsuri. Doar în primele auditoriul utilizatorilor activi ChatGPT a ajuns la 100 mln. de persoane – un record istoric de sporire a numărului vizitatorilor.

În martie, 2023 interesul față de acest produs a crescut și mai mult, după apariția unui model nou, accesibil textierilor și abonaților plătiți. AI a căpătat posibilitatea de a prelucra nu numai texte, ci și imagini. La popularitatea rețelei neuronale OpenAI au reacționat cele mai mari corporații tehnologice. Astfel, Google a anunțat că începe testarea propriului chatbot Bard, AIr Microsoft a montat ChatGPT în motorul de căutare Bing.

Asta chiar dacă exactitatea de facto a chatbot-ului a fost pusă la îndoială de multe ori, ca și numărul mare de răspunsuri răutăcioase și înșelătoare. În încercarea de a preveni obținerea unor rezultate ofensatoare la adresările utilizatorilor și a unor răspunsuri dubioase, ChatGPT filtrează cumva solicitările, și respinge sugestiile nedorite. Dar numeroase exemple arată că în largul internetului acest lucru nu se reușește mereu.

Au fost depistate numeroase cazuri în care ChatGPT, din cauza imperfecțiunii sale, nu numai că emitea idei căzute din pod, dar pentru a le sprijini «născocea» surse, fapte și evenimente inexistente. Experții menționează, că prima experiență pozitivă de utilizare a modelului poate toci semnificativ vigilența utilizatorilor. Încrederea excesivă în sistemul AI, sprijinită de lenea firească a omului, riscă excluderea unei verificări suplimentare a rezultatelor obținute în soluționarea unoir probleme, inclusiv de importanță publică.

«Efectul domino»

După ce unul dintre specialiști a utilizat ChatGPT într-o clădire studențească și a descoperit că textul generat de el corespunde celui care poate fi prezentat de un student bun, el a opinat că «în fața cercurilor academice stau niște probleme foarte grave ». Deja au fost cunoscute cazuri de utilizare ne-etică a rețelelor neuronale la susținerea examenelor scrise și la scrierea diferitor lucrări, inclusiv de absolvire a școlilor și universităților.

Uneori este imposibil să deosebești un text creat de ChatGPT de unul scris de om, ceea ce evident încalcă principiul îndeplinirii de sine stătătoare a sarcinilor. Toate acestea pun la îndoială respectarea cererii de bază față a oricărui sistem de educație clasică – însușirea bună a materialului de către elev sau student.

Cu alte cuvinte, metodele existente de evaluare a elevilor nu răspund deplin noilor realități. Ele necesită corectări, sau introducerea unor restricții la utilizarea modelelor lingvistice mari în domeniul educației. Experții menționează necesitatea schimbării sistemului educațional astfel, ca să fie limitat accesul la tehnologiile digitale și exclus accesul la inteligența artificială în procesul de studii la pregătirea și susținere a oricăror examene și lucrări de control.

Printre principalele riscuri la care atrag atenția specialiștii, este probabilitatea mare de inducere în eroare a utilizatorului. Precizia reală a ChatGPT este pusă la îndoială cu regularitate. În mass-media și pe rețelele de socializare putem găsi numeroase exemple . Astfel, unul dintre utilizatori i-a adresat ChatGPT numeroase întrebări. Într-un exemplu, el a cerut să-i fie numită cea mai mare țară din America Centrală, după Mexic. ChatGPT a răspuns că este Guatemala, deși răspunsul corect este Nicaragua. A fost un caz în care unul dintre avocați a ajuns pe banca acuzaților după ce a folosit în dosar precedente care nu existau în realitate, pe care i le-a furnizat ChatGPT.

Cercetătorii își exprimă neliniștea și pentru influența lui asupra reglementării legislative și formarea opiniei publice. Căci cu ajutorul chatbot-ului orice persoană capătă aptitudinea de a scrie automat comentarii, în încercarea de a influența adoptarea unor acte normative noi și alte procese.

Printre altele, acest risc lansează scenariul utilizării masive a chatbot-urilor în scopul manipulării opiniei publice. Astfel, la solicitarea utilizatorului, ChatGPT și analoagele lui pot pune pe bandă rulantă crearea unor bot-uri eficiente care într-o anumită măsură nu se deosebesc de oameni, în scopul falsificării recenziilor online (la mărfuri, servicii, etc.), chipurile bazate pe experiența proprie, care în cazul chatbot-urilor nu există și nu poate exista.

Din același set face parte riscul impactului manipulativ asupra auditoriului prin generarea masivă a publicațiilor, chipurile create de om. O atare utilizare a modelelor de limbaj sporește semnificativ orice potențial propagandistic grație funcționalului de generare a diverselor texte cu sens general, montat în sistemul AI. De fiecare dată, la una și aceeași solicitare de context, sistemul va emite un text unic în baza ideii sau a tezei cerute.

Experții mai vorbesc despre riscurile generării unui volum mare de conținut ideologizat, pe care persoanele interesate l-ar putea aplica pentru destabilizarea politică și socială a societății. Dat fiind că AI este integrată profund în motoarele de căutare a informației în internet și pe rețelele de socializare, în cel mai scurt timp poate fi creat un spațiu informațional necontrolat. Mesajele trimise de chatbots în spațiul informațional vor fi începe să fie preluate, să evolueze și să capete o audiență umană reală. Greu de prognozat urmările acestui «efect domino» .

Există și multe alte pericole potențiale, asupra cărora ne atenționează specialiștii. Tot mai des răsună opinii cum că ChatGPT va influența cererea pentru angajații intelectuali și va duce la înlocuirea parțială a oamenilor cu asistenți «inteligenți». În același timp, ChatGPT poate deveni un instrument eficient pentru răufăcători, căci are capacitatea de a scrie malware și e-mailuri de phishing.

«Sursă de frică și dezinformare»

Într-un șir de țări, inclusiv China, RusAI, Belarus, Afganistan ș.a. accesul la acest service este limitat. Celor mai mari companii – IT din China, în pofida faptului că deja există o interdicție, li s-a interzis să utilizeze ChatGPT în produsele lor. Potrivit China Daily, chatbots poate contribui la difuzarea informației în interesele geopolitice ale SUA.

Prima țară occidentală, care a blocat de sine stătător ChatGPT, a fost Italia. Autoritățile fac trimitere la nerespectarea regulilor privind confidențialitatea datelor. Autoritățile italiene au explicat măsurile restrictive prin scurgerile de date ale utilizatorilor în martie, 2023. În plus, cu referite la confidențialitatea chat-ului a fost menționată lipsa informației despre datele acumulate de OpenAI, și temeiurile juridice de a acumula și stoca date pentru instruirea AI. Compania a fost acuzată că nu verifică vîrsta utilizatorilor.

Cum se vede, fluxul de măsuri restrictive va crește. În lunile din urmă în multe state se desfășoară discuții aprinse despre riscurile utilizării noilor modele ale inteligenței artificiale. Din cauza îngrijorărilor privind impactul negativ asupra educației, precum și privind securitatea și exactitatea conținutului generat de sistem, accesul la ChatGPT este limitat pe rețelele și dispozitivele școlilor publice din New York.

Organizațiile internaționale tot mai des îndeamnă la precauție în utilizarea produselor ce țin de AI. Recent, secretarul general ONU Antonio Guterres a atenționat asupra faptului că aplicațiile AI trebuie să respecte normele de etică. Potrivit lui, azi mediile sociale și diverse platforme digitale tot mai des devin nu un mijloc de legătură între oameni, ci o sursă de frică și dezinformare. Secretarul general ONU crede că este important să fie luate toate măsurile, pentru ca aplicațiile computerizate să nu iasă de sub control, «să fie sigure, apărate, să corespundă eticii și angajamentelor în domeniul drepturilor omului ».

El este convins că toate țările trebuie să rezolve aceste probleme «urgent și imediat». «La apariția, acum o generație, rețelelor de socializare, platformele digitale erau percepute ca o nouă modalitate interesantă de comunicare. Acum de platformele digitale se face abuz, pentru a submina știința, a difuza dezinformări și a incita la ură», - a subliniat Guterres .

La începutul lui iunie, Parlamentul European a aprobat un proiect ce reglementează AI și este chemat să limiteze riscurile create de dezvoltarea ChatGPT. Este vorba despre un regulament european (primul în lume) cu referire la inteligența artificială. Documentul, printre altele, interzice complet sistemele automate de recunoaștere facială în locurile publice. La elaborarea lui, a fost discutată posibilitatea unor excepții, însă într-un final parlamentarii europeni au renunțat la asta și au decis în favoarea interdicției totale. Acum țările UE urmează să perfecteze textul actul acrului normativ.

Despre provocările ChatGPT și a modelelor analoage, se vorbește și în Moldova. Zilele trecute, în alocuțiunea ținută în cadrul ceremoniei de decorare a celor mai talentați studenți din sfera IT, președinta Maia Sandu a amintit despre posibilitățile și riscurile inteligenței artificiale. Șefa statului a subliniat, că totul se dezvoltă foarte rapid, și că tema trebuie discutată inclusiv în instituțiile educaționale.

«Cine dintre voi folosește ChatGPT la îndeplinirea temelor pentru acasă? Mulți dintre dascălii voștri pricep dacă sarcina a fost efectuată cu ajutorul ChatGPT, a altui model, sau de elevul însuși? Este o discuție serioasă, pe care trebuie să o desfășurăm în școală. Inteligența artificială ne poate speria, ea ne oferă niște posibilități extraordinare, însă are și numeroase riscuri. Dacă nu le cunoaștem, nu le studiem, nu le înțelegem s-ar putea să nu ne placă ceea ce va urma»,- a spus Sandu.

Potrivit multor analiști, la moment este imposibilă protecția totală de pericolele generate de rețelele neuronale și chatbot-uri. Specialiștii ne îndeamnă să fim precauți, să nu avem încredere totală în rețelele neuronale și să verificăm orice informație venită din partea lor. La nivel legislativ, cred ei, trebuie limitat accesul la ele pentru un anumit cerc de persoane, de exemplu în sistemul educațional, iar din punct de vedere al securității utilizării trebuie să adoptăm legi care stabilesc reguli stricte privind acumularea și stocarea datelor utilizatorilor, precum și certificarea și licențierea obligatorie a creatorilor și posesorilor acestor tehnologii.

Victor Surujiu

4
0
0
0
2

Adăuga comentariu

500

Ați găsit o eroare în text? Marcați-o și tastați Ctrl+Enter

La ce etnie vă atribuiți?