''A halucina'' - desemnat cuvântul anului 2023 de dicţionarul Cambridge

Autorul articolului: Astrosens Team |
Data publicării:
| Categorie: Actualitate
Sursă foto: Pexels
Sursă foto: Pexels

O firmă de avocatură din Statele Unite a utilizat ChatGPT pentru documentare juridică, generând astfel mențiuni ale unor cazuri fictive în sala de judecată.

Dicționarul Cambridge a anunțat că termenul "hallucinate" ("a halucina") a fost desemnat cuvântul anului 2023, după ce acesta a primit o nouă definiție asociată generării de informații false de către inteligența artificială (AI), conform informațiilor furnizate de DPA și PA Media. Halucinațiile AI, cunoscute și sub numele de confabulații, pot părea uneori absurde, dar pot fi aparent plauzibile, chiar și atunci când sunt inexacte din punct de vedere factual sau pur și simplu ilogice. Definiția tradițională a termenului "a halucina" se referă la perceputa vedere, auzire, simțire sau mirosire a unui lucru care nu există, de obicei din cauza unei afecțiuni de sănătate sau a consumului de substanțe psihoactive.

Noua definiţie adiţională din Dicţionarul Cambridge spune: Când o formă de inteligenţă artificială (un sistem informatic care are o parte din calităţile creierului uman, cum ar fi abilitatea de a produce limbaj într-un fel care pare uman) halucinează înseamnă că produce informaţie falsă. După o creştere iniţială a interesului în ceea ce priveşte instrumente pentru inteligenţa artificială generativă (AI) cum ar fi ChatGPT, atenţia publicului a migrat către limitările AI şi a modalităţilor prin care acestea pot fi depăşite. Instrumente AI, în special cele care folosesc modele lingvistice mari (LLM), s-au dovedit capabile de a genera discurs plauzibil, dar deseori face acest lucru folosind fapte false, eronate sau inventate. Acestea halucinează într-o manieră încrezătoare şi câteodată credibilă. Faptul că AI-ul poate 'halucina' ne aminteşte că oamenii au în continuare nevoie să-şi aducă abilităţile de gândire critică în folosul acelor instrumente, a spus Wendalyn Nichols, manager editorial al Dicţionarului Cambridge. AI sunt fantastice în ceea ce priveşte căutarea printr-o cantitate mare de date pentru a extrage informaţii specifice şi a le consolida. Şi cu cât le ceri să fie mai originale, cu atât există probabilitatea mai mare de a o lua razna, a mai spus ea. În cel mai bun caz, modelele lingvistice mari pot fi doar la fel de fiabile ca şi datele folosite pentru învăţare. Expertiza umană este fără îndoială mai importantă - şi mai căutată - ca oricând, pentru a crea informaţii oficiale şi la zi pe baza cărora poate fi învăţat LLM-ul. Halucinaţiile AI au avut deja impact în lumea reală.

O firmă de avocatură din Statele Unite a utilizat ChatGPT pentru documentare juridică, generând astfel mențiuni ale unor cazuri fictive în sala de judecată. Într-un clip video promoțional Google pentru propriul său chatbot, Bard, instrumentul AI a comis o eroare factuală în legătură cu Telescopul Spațial James Webb. Această evoluție ilustrează o tendință în creștere legată de antropomorfizarea tehnologiei AI, adică utilizarea unor metafore umane atunci când vorbim, scriem sau gândim despre mașini.

"Noua definiție oferă o perspectivă fascinantă asupra modului în care gândim despre inteligența artificială și tendința noastră de a o trata ca pe ceva uman. Folosirea frecventă a termenului 'halucina' în contextul erorilor generate de sisteme precum ChatGPT arată cum atribuim conotații umane acestor greșeli. Informațiile inexacte și înșelătoare au existat întotdeauna, fie sub forma zvonurilor, propagandei sau știrilor false", a declarat Henry Shevlin, specialist în etică AI la Universitatea Cambridge. "Chiar dacă acestea sunt, în mod normal, considerate produse ale minții umane, 'a halucina' este un verb sugestiv care descrie o experiență în care un subiect se disociază de realitate. Alegerea lingvistică reflectă o schimbare subtilă, dar semnificativă, în percepția noastră: AI-ul, nu utilizatorul, este cel care 'halucinează'. Aceasta nu indică neapărat o credință răspândită în înțelepciunea AI, ci evidențiază disponibilitatea noastră de a atribui atribute umane inteligenței artificiale."

"Pe măsură ce trecem prin acest deceniu, mă aștept ca vocabularul nostru psihologic să se extindă pentru a cuprinde și abilități neobișnuite ale noilor inteligențe pe care le creăm."

Sursă: AGERPRES/(AS-autor: Simona Tatu, editor: Gabriela Ionescu)

Google News icon  Fiți la curent cu ultimele noutăți. Urmăriți Astrosens și pe Google News

Articole similare
Cele mai noi articole
Trend - Top citite
Get it on Google Play


DC Media Group Audience


pixel