Un nou studiu realizat de experți din cadrul Universității Stanford și Universității Yale ridică semne de întrebare atunci când vine vorba de informațiile oferite de uneltele AI, mai ales în domeniul juridic.
Uneltele AI nu sunt sigure în domeniul juridic. Avertismentul experților de la Yale și Stanford
Potrivit unui nou studiu, uneltele AI nu sunt sigure atunci când sunt folosite în domeniul juridic și pot avea „halucinații”.
Nu e prima dată când sunt ridicate semne de întrebare legate de cât de sigure sunt aceste unelte cu inteligență artificială.
Experții recomandă avocaților să evite să se bazeze pe informațiile oferite de AI.
Uneltele AI nu sunt sigure în domeniul juridic
Un nou studiu realizat de cercetători de la universităţile americane Stanford şi Yale atrage atenţia asupra fiabilităţii instrumentelor de inteligenţă artificială (AI). Acestea sunt utilizate și pentru cercetări în domeniul juridic. Avocaţii sunt sfătuiţi să fie precauţi în legătură cu rezultatele oferite de AI, transmite agenţia Xinhua, scrie AGERPRES.
Experții au concluzionat că uneltele AI nu sunt sigure în domeniul juridic.
Studiul, intitulat („Fără halucinaţii? Evaluarea fiabilităţii celor mai importante instrumente de cercetare juridică AI” („Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools”), a analizat diferite instrumente bazate pe AI. Avocaţii le folosesc în activităţi de cercetare din domeniul juridic. În scopul evaluării potenţialului de generare a unor informaţii false, cunoscute sub numele de „halucinaţii”.
Avocaţii utilizează din ce în ce mai mult instrumente bazate pe AI. Acestea îi ajută în practica juridică. Cu toate acestea, modelele de limbaj de mari dimensiuni utilizate în cadrul acestor instrumente sunt predispuse la „halucinaţii”. Prezintă astfel riscuri în meseria lor, au declarat autorii studiului publicat pe site-ul Universităţii Stanford.
Unele companii care produc aceste instrumente bazate pe AI susţin că au rezolvat această problemă. Însă cercetătorii consideră afirmaţiile lor „exagerate” și au descoperit că uneltele AI nu sunt sigure.
AI poate avea „halucinații”
Studiul a testat instrumente populare de la LexisNexis şi Thomson Reuters. A constatat că acestea au făcut greşeli în proporţie de 17%-33%.
Potrivit studiului, unele „halucinaţii” apar atunci când instrumentele bazate pe AI citează norme juridice inexistente. Sau interpretează greşit precedentele judiciare.
Ca urmare, experții au concluzionat că uneltele AI nu sunt sigure în domeniul juridic și că avocații nu trebuie să apeleze la ele.
Studiul citează cercetări anterioare. A arătat că, începând din ianuarie 2024, cel puţin 41 dintre primele 100 cele mai mari firme de avocatură din Statele Unite au început să utilizeze AI în practica lor.
Autorii au făcut apel la avocaţi să supervizeze şi să verifice rezultatele generate de AI. Au îndemnat în acelaşi timp furnizorii de instrumente bazate pe AI să dea dovadă de sinceritate în ceea ce priveşte acurateţea produselor lor şi să furnizeze dovezi care să le susţină.
În urmă cu doar câteva săptămâni, opt companii din domeniul tehnologiei, printre care gigantul IT american Microsoft, au semnat o cartă pentru a „construi o inteligenţă artificială mai etică”.
După adoptarea, în noiembrie 2021, de către peste 50 de ţări a primelor reguli mondiale privind inteligenţa artificială (AI), „facem un nou pas important prin obţinerea aceluiaşi angajament concret din partea marilor companii”, a declarat Audrey Azoulay, directoarea generală a UNESCO.