Dezvoltarea inteligenței artificiale reprezintă un risc de securitate în numeroase domenii. Până acum, tehnologia AI a fost folosită pentru a ataca utilizatorii Gmail, clienții unor bănci și chiar pentru a realiza înșelătorii la telefon sau prin mesaje.
Ce e GhostGPT. Hackeri din întreaga lume vor să îl folosească
Experții au dezvăluit ce e GhostGPT, o nouă platformă la care hackeri din întreaga lume se grăbesc să aibă acces.

Problema a devenit atât de cunoscută încât și FBI a emis un avertisment pentru astfel de înșelătorii, scrie Forbes.
AI are un potențial fantastic de a schimba societatea, dar reprezintă și un risc, în funcție de cum e folosită. Din păcate, se pare că cineva a folosit acest potențial fantastic pentru a crea un chatbot AI menit pentru criminali cibernetici și hackeri.
Ce e GhostGPT
GhostGPT e un nou chatbot AI, necenzurat, destinat criminalilor cibernetici, potrivit unui nou raport. EXperții susțin că hackerii folosesc GhostGPT pentru a crea malware, a organiza înșelătorii de phishing și multe alte riscuri. Raportul a fost publicat de cercetători din cadrul Abnormal Security.
GhostGPT e un chatbot AI ce îi ajută pe criminalii cibernetici să eficientizeze înșelătoriile. Platforma a fost descoperită recent.
Spre deosebire de modelele AI obișnuite, care au reguli pentru a oferi interacțiuni sigure și responsabile, tipul de chatbot necenzurat funcționează fără aceste restricții de siguranță. Ceea ce ridică semne de întrebare privind modul în care e folosit GhostGPT.
Potrivit experților Abnormal Security, care au descoperit ChatGPT, utilizatorii acestui chatbot trec dincolo de granițele etice ale tehnologiei.
GhostGPT nu e similar cu platformele chatbot AI obișnuite, ce sunt folosite de milioane de oameni. Acestea nu permit utilizatorilor să pună întrebări precum cum să creeze malware sau înșelătorii de phishing.
Potrivit Abnormal Security, GhostGPT e „un chatbot creat special pentru criminalii cibernetici”. Cel mai probabil, e bazat pe un model AI cu sursă deschisă. Dar folosește aceste principii pentru a crea strategii care pot face milioane de victime la nivel mondial.
„Prin eliminarea restricțiilor de securitate etice introduse de obicei în modelele AI, GhostGPT poate oferi răspunsuri directe, nefiltrate, la întrebări periculoase. Care ar fi blocate de sistemele AI tradiționale,” susțin experții.
GhostGPT e „un chatbot creat special pentru criminalii cibernetici”
Potrivit raportului GhostGPT e disponibil criminalilor cibernetici ce folosit serviciul de mesagerie Telegram. Acolo, poate fi accesat drept un bot Telegram după ce a fost plătită o taxă.
„Coboară barierele de intrare pentru criminalii cibernetici noi. Pentru că le permite cumpărarea accesului via Telegram, fără să aibă nevoie de abilități speciale sau antrenament special,” continuă experții. „Ca urmare, hackerii cu abilități mai puțin dezvoltate pot lua parte la activități criminale.”
Chiar dacă o mare parte din activitățile criminale au o componentă digitală în ziua de azi, unii hackeri folosesc metode mai vechi pentru a-și păcăli victimele. În timp ce unii folosesc programe precum GhostGPT, alții apelează la ajutorul scrisorilor pe hârtie.
Hackerii folosesc scrisorile fizice așa cum fac și cu strategii digitale. Potrivit avertismentului experților, tactica folosea serviciul poștal național pentru a trimite aceste scrisori. Acestea susțineau că vin din partea MeteoSwiss, oficiul național de meteorologie din Elveția.
Dar aceste scrisori erau, evident, false. În realitate, includeau un cod QR tipărit pe ele. În scrisoare, recipienții erau sfătuiți să descarce o aplicație menită pentru avertismente despre vremea meteo severă.
Așa că în continuarea sunt necesare tehnologii noi pentru a efectua astfel de înșelătorii. Și unelte precum GhostGPT pot produce riscuri și mai mari.



























