Potrivit unei investigații Wall Street Journal, OpenAI a dezvoltat un sistem de introducere a unui watermark în textul generat de ChatGPT. Și o unealtă specială care poate detecta acest conținut.
OpenAI are deja o unealtă care poate detecta AI cu o precizie de 99.9%. De ce nu a lansat-o compania până acum
OpenAI are deja o unealtă care poate detecta AI, conținut generat de ChatGPT, cu o precizie de 99.9%, dar încă nu a lansat-o până acum.
Dar există tensiuni interne în OpenAI despre posibilitatea lansării acestei funcții, scrie The Verge.
Deși lansarea acestei unelte ar fi decizia corectă, ar putea afecta profitul companiei.
OpenAI are deja o unealtă care poate detecta AI cu o precizie de 99.9%
Sistem de watermark OpenAI e descris drept o ajustare a modului în care modelul prezice cele mai probabile cuvinte și fraze. Unele după altele. Astfel, se creează un tipar care poate fi detectat. Google a oferit o explicație mai amplă asupra procesului de watermarking pentru propriul model AI, numit Gemini.
Se pare că OpenAI are deja o unealtă care poate detecta AI, dar refuză să o lanseze, pentru că i-ar putea fi afectat profitul. Oferirea unui mod de a detecta conținutul AI poate fi de ajutor în numeroase industrii.
De exemplu, profesorii pot folosi astfel de unelte pentru a detecta AI în proiectele studenților. Potrivit raportului Wall Street Journal, acest sistem nu a afectat calitatea conținutului generat de ChatGPT. Într-un studiu cerut de companie, „oameni din întreaga lume susțin ideea unei unelte pentru a detecta AI. Cu o medie de 4 la 1”.
După ce Wall Street Journal a publicat articolul, OpenAI a confirmat că lucrează la un astfel de sistem. Cu un mesaj scris pe propriul blog. În mesaj, compania susține că metoda lor e foarte precisă, cu o „eficiență de 99.9%”. În plus, sistemul ar fi imun la manipulări, „precum parafrazare”. OpenAI a confirmat că are deja o unealtă care poate detecta AI. Dar nu a oferit detalii despre o posibilă lansare.
Unealta de detectare AI poate fi folositoare
OpenAI pare să fie îngrijorată că un astfel de sistem de detecție poate convinge unii utilizatori ChatGPT să renunțe la chatbot. Se pare că aproximativ 30% dintre utilizatorii intervievați ar folosi software-ul mai rar dacă ar fi implementat un sistem de watermarking.
În ciuda acestui rezultat, cum OpenAI are deja o unealtă care poate detecta AI, mulți angajați ai companiei cred că un astfel de sistem e eficient.
În mesajul publicat, OpenAI susține că se află în „primele etape” ale explorării posibilității de implementare a metadatelor în conținutul generat. Compania susține că e „prea devreme” pentru a-și da seama dacă un astfel de sistem ar funcționa.
Un astfel de sistem e extrem de important în contextul actual. Hackerii deja folosesc ChatGPT pentru a-și înșela victimele.
Mai mult, experți din cadrul Universității din San Diego au vrut să testeze noile sisteme AI recent. Ei au evaluat ELIZA (un chatbot simplu din anii 1960), GPT-3.5 și GPT-4, într-un Test Turing controlat. Participanții au avut o conversație de 5 minute, fie cu un alt om, fie cu AI. Ulterior, au decis dacă partenerul lor de conversație a fost om.
Potrivit rezultatelor cercetării, oamenii nu pot distinge între ChatGPT și o persoană, în acest test.