►► Ofertele continuă la: eMAG・Fashion Days・Finestore・Dyson・Flip. 📺 YouTube: youtube.com/NwraduBlog ◄◄
13 Mar 2024 ·
Această utilizare a inteligenței artificiale este mai controversată pentru că, în scenariul de mai jos, AI-ul nu a funcționat bine. Dar seria asta de articole este despre cum pot fi utilizate sisteme AI. În timp, probabil devin mai bune.
Serviciul israelian de informații Shin Bet a anunțat prin vara anului trecut că și-a construit un chatbot AI. Un soi de ChatGPT, să zicem, dar antrenat pe informații secrete despre teroriști Hamas și probabil alte amenințări.
Aplicația aceasta are sens. Mai știți când am scris că NVIDIA oferă acum un fel de chatbot pe care-l poți antrena pe ce documente vrei tu, de exemplu cursurile de la facultate, și deci acesta devine ca un fel de super-tocilar care știe tot ce este de știut despre materiile respective? Îl poți întreba orice, îi poți cere să facă rezumate, să facă paralele, să îți spună unde altundeva mai apare o anumită informație.
Cam așa și aici. Prima etapă în activitate presupune adunarea de date. Urmărirea fizică a unei persoane, notat unde merge, cu cine vorbește, ce cumpără, la ce oră. Interceptări telefonice, studiat activitatea online șamd.
A doua etapă presupune analiza tuturor acestor date și aceasta parte este dificilă. Este nevoie de persoane foarte bine antrenate și deștepte pentru a vedea sensul acelor multe date, pentru a le transforma în informații, cum zicea un profesor de-ai mei.
Cineva trebuie să analizeze totul și să descopere că în fiecare joi suspectul bea o cafea într-un anumit loc sau că din trei în trei săptămâni, când merge la sală, alege vestiarul numărul 27. Cineva trebuie să se uite cu ce alte persoane se asociază și poate să descopere ce înseamnă anumite cuvinte cheie folosite în conversațiile lor.
Și aici intră în ecuație chatbot-ul AI. Studiază instant toate aceste informații. Poate răspunde la orice informație din ele. Poate căuta trenduri care altfel scapă unui om.
Articolul sursă spune și că chatbot-ul a fost un eșec. Israelienii erau la curent că cei din Hamas se antrenează repetând atacuri asupra unor garduri. Știau de mai bine de un an că se pregătește un atac.
Cei din Hamas, în schimb, transmiteau informații false prin informatori sau alte canale despre care știau că sunt monitorizate de israelieni. Aceste informații spuneau că Hamas se teme de israelieni și se concentrează pe viața din Gaza.
Chatbot-ul a crezut asta. Sau a pus mai mult preț pe aceste informații decât pe altele. Una din funcțiile AI-ului era să prezică un comportament periculos și să dea alerta că se pregătește ceva. Nu a făcut asta. Pe 7 octombrie Hamas a lansat un atac cu aproape 3000 de militanți. Peste 1100 de israelieni și străini au murit. Peste 30.000 de palestinieni au murit de atunci în bombardamentele israeliene care au urmat, dintre care peste 12.000 de copii.
Acum, nu e clar dacă chatbot-ul AI era singur la muncă. Probabil că nu. Era experimental sau măcar foarte nou pus în funcțiune și probabil că orice informație de-a sa era verificată. Poate lucra chiar în paralel cu personal uman, pentru testare A/B. Poate chiar a fost prost.
Oricum, acesta este un alt scenariu de utilizare pentru AI-uri. Pun pariu că toate țările care își permit așa ceva au pus deja în funcțiune sau vor pune în funcțiune unele. Capacitatea lor de absorbție de date și de interogat aceste date este greu de egalat.
Vreți un avatar în comentarii? Mergeți pe gravatar.com (un serviciu Wordpress) și asociați o imagine cu adresa de email cu care comentați.
Dacă ați bifat să fiți anunțați prin email de noi comentarii sau posturi, veți primi inițial un email de confirmare. Dacă nu validați acolo alegerea, nu se va activa sistemul și după un timp nu veți mai primi nici alte emailuri
Comentariile nu se pot edita ulterior, așa că verificați ce ați scris. Dacă vreți să mai adăugați ceva, lăsați un nou comentariu.
5 comentarii
13/03/2024 la 7:23 AM
l-au scos putin din priza cat au pus in scena motivul :)
(care oricum nu venea din zona in care se uita robotul)
john2381(Citează)
13/03/2024 la 7:51 AM
Așa zisă “inteligență” artificială care e de fapt mai mult procesare de date. Dar sună bine să visăm SF-uri și să ne amăgim cu ele.
gabi(Citează)
13/03/2024 la 9:39 AM
„Peste 30.000 de palestinieni au murit de atunci în bombardamentele israeliene care au urmat, dintre care peste 12.000 de copii.”
Conform surselor Hamas. Aș lua cifrele astea cu o doză apreciabilă de sare.
Peredhil(Citează)
13/03/2024 la 12:38 PM
Pai sa luam cu sare si ce zice propaganda israeliana zic. Ca au venit de acolo niste gogosi umflate … pff. Cum prezenta ridicolul ala de daniel hagari un calendar ca fiind tabel cu teroristi :)
Florin(Citează)
13/03/2024 la 10:23 AM
Dacă voi credeți că Israel nu știa de o astfel de acțiune vă înșelați amarnic.
Israel pândea momentul să intre în Gaza să scape de Hamas, dar nu avea motivul pentru justificare.
Acum, cu acțiunea asta, au avut justificare pentru orice.
Mihai(Citează)