INTERNET<>
022018<><>

AI asistenti i privatnost

AI, Spy

Korporativna tomsojerizacija procesa prisluškivanja

Dok internet megakorporacije nastavljaju da javnosti predstavljaju nove tipove veštačke inteligencije, tehnofili i entuzijasti nastavljaju da eksponiraju svoj nedostatak inteligencije. Svake se godine čelnici tehnoloških megakorporacija dosete da napaćenu raju obraduju nekom glupošću koju niko nije tražio, ali je eto sada u trendu, kao što se dešavalo sa 3D-om, augmented reality naočarama, zakrivljenim ekranima, motion controlom i drugim „inovacijama” kojima je konglomerat tech korporacija počastio širu javnost. Ranije bi neki tim ili pojedinac nešto smislio pa ponudio, da bi dinosaurusi industrije izlazili na crtu ako bi se ideja odomaćila među svetom. U tom slmislu je vox populi određivao trendove. Danas, kad su pojedinci ili timovi jučerašnjice koji su nekad plasirali (ne uvek i smislili) nešto suvislo, postali megakorporacije, stvari se rade drugačije. Ko god, uključujući i druge megakorporacije, nešto smisli, to se mora odmah kopirati i hajpovati, da se ne bi slučajno desilo da nešto uspe, a da uprava megakorporacije nema svoje prste i u toj tegli sa pekmezom, pa da onda gledaju kako upravni odbori drugih kompanija sebi dele dodatne bonuse, a oni siromasi ostaju samo na desetinama miliona. Tako smo dobili agresivnu kampanju stvaranja veštačke potražnje za asistentima zasnovanim na veštačkoj inteligenciji jer, kad su ih već razvili, ’ajde da ih nekome uvale.

AI, ne lupetaj

Ko prati smešniju stranu internet subkulture zna da je jedno vreme popularan izvor zabave bio u istraživanju granica „zbunjenosti” Applove lične pomoćnice Siri, pa su ljudi kačili nebulozne i smešne odgovore i rečenice ovog parčeta veštačke inteligencije. Nadležni iz Microsofta su odlučili da je nedopustivo da se korisnici interneta smeju samo Applovom feleričnom softveru, pa su Cortanu unapredili iz sporednog lika nekog tamo shootera (svesni smo naziva, ali je ovako zanimljivije) u pandan Siri, sa sve plavim obličjem čijim atributima bestelesna Siri ne može da parira. Svi su potom razvili svog virtuelnog asistenta uključujući naravno i nezaobilazni dinamični duo(pol) Facebooka i Googla.

Iz Amazona je potom stigao Echo, sprava koja se najbolje može opisati kao pametni zvučnik, čija je glavna komercijalna vrlina upravo AI lični asistent, Alexa, ugrađen u spravu. Echo je za kratko vreme, koliko postoji, dobio približno milion iteracija, a ni kopijama nije trebalo dugo da počnu da niču kao pečurke posle kiše. Google je izbacio Google Home, iz saradnje Harmona (američke podružnice Samsunga), iz Microsofta je proizišao Invoke sa umetnutom Cortanom, dok ovih dana treba da nas udostoji svog prisustva i HomePad, varijacija na temu iz Apple Inc. korporacije.

Not a feature

Mehanizmi glasovne kontrole tek sa AI asistentima postaju široko rasprostranjeni i prihvaćenost koju su im dugo predskazivali, ali tehnologija je i dalje daleko od savršene. Pored obilja sigurnosnih bagova prilikom komunikacije sa serverima i mnoštva propusta, koji deluju nevažno dok se ne setite da se radi o vašim podacima, valja navesti još jednu falinku sistema za prepoznavanje glasa, koja otvara mogućnost za nešto što se zove „delfinski napad”. Zbog toga što su hardware i software, kako telefona i računara, tako i kutija sa asistentom (kako bismo nazvali Echo i bratiju) dizajnirani da hvataju i zvučne frekvencije izvan opsega ljudskog sluha (radi poboljšanja razumevanja i smanjivanja smetnji koje prave pozadinski zvukovi), moguće je, putem kompjuterske manipulacije glasa, uređaju izdati komandu koju ne može da čuje čovek. To je zanimljivo, ali i krajnje alarmantno ako govorimo o vašem telefonu ili još gore, o pametnoj kući. Pošto se mobilni telefoni sve češće koriste kao ključ i sredstvo plaćanja, ovo bi moglo imati katastrofalne posledice da tehnika manipulacije nije prostorno ograničena. Siri, Google Assistant, Samsung S Voice i Alexa na čitavoj paleti uređaja, podložni su ovom tipu napada i niko iz navedenih korporacija nije objasnio zašto nije uvedeno isključivanje komandi koje su izdate na frekvenciji izvan ljudskog slušnog opsega.

Kako to misliš, Siri, moje knjige?

Ako ste gledali starija filmska ostvarenja koja se bave špijunskom tematikom na ozbiljan način, mogli ste se upoznati sa teškoćama koje su raznorazni agenti imali sa ozvučenjem kuća nepodobnih individua. Špijuni budućnosti sigurno neće imati takvih problema (kao da ih špijuni sadašnjosti imaju), pošto je sve veći broj pojedinaca pod pritiskom marketinške navale spreman da u kuću uvede elektronsku spravu koja, ne samo da sve sluša, već je i dovoljno „inteligentna” da to i analizira, izvuče metapodatke i pošalje sočne nalaze. Ovo će možda zaprepastiti čitaoce koji smatraju da tehnološke megakorporacije ne bi neovlašćeno sakupljale podatke o korisnicima da bi ih zatim prodale svima koji pokažu interesovanje i kofer zelembaća, ili ih trampile sa nekim vladama u zamenu za pristup tržištu ili slične dilove, bez obzira na to šta piše u njihovim sopstvenim EULA ugovorima, koje ionako niko ne čita i u koje mogu da stave šta hoće.

Međutim tehnološke korporacije svih kalibara i iz svih grana ovog privrednog sektora dosad su se pokazale kao veoma orne da učine baš to. Nedavno istraživanje vašingtonske organizacije Future of Privacy Forum (Forum o budućnosti privatnosti) u saradnji sa britanskom consulting firmom Ernest & Young, otkrilo je da su svi standalone uređaji bazirani na AI ličnom asistentu uvek uključeni i da uvek slušaju bez obzira na podešavanja. Sama činjenica da kompanije mogu stalno da vas prisluškuju, zastrašujuća je, ali na to treba dodati i sve glasnije pozive državnih organa proizvođačima da, pored mogućnosti pasivnog prisluškivanja, uvrste i mogućnost praćenja vrućih reči (hot words) – sa namerom da nadležni, naravno za naše dobro, budu obavešteni o tome, jer je orvelijanski stepen nadzora uvek za naše dobro. U nekim državama AI asistent će obaveštavati nadležne da je neko izgovorio – „bombu staviš tamo”, ali pre ili kasnije (kladili bismo se na pre) neko će se setiti da sprava mora da reaguje i na „predsednik možda nije u pravu”. Takve informacije bi mogle da budu nagrađene koncesijom ili pristupom tržištu. Šta mislite kako bi megakorporacije reagovale u tom slučaju, kada bi pristup milionima potencijalnih mušterija, naivčina koje gaje iluzije slobode, bio uslovljen dilom sa dragim vođom?

Znači Alexa ove skuplje su bolje?

Da ste CEO Amazona i da su vas neki dobri ljudi pustili da ih prisluškujete 24/7, što generiše ogromnu količinu podataka o njima koju je lako i lukrativno uvaljati oglašivačima, da li bi vam bilo dosta para? Ako je vaš odgovor potvrdan, taj stav (i manjak sreće naravno) razlog je što niste prvi čovek sa 100 milijardi. Reportaža CNBC-a nam govori da su trenutno u toku pregovori Amazona sa nekoliko ogromnih korporacija u vezi sa oglašavanjem preko Echo spravica, što sigurno nije dobra vest za kupce bilo čega, jer Amazon akvizicijama, inovacijama i marketinškim naletom zatvara trgovinski ekosistem, što ovoj megakorporaciji omogućava do sad neviđene manipulacije u maloprodaji, a brojni dobavljači su spremni da plate da ih Amazon stavi u prvi plan.

To nas dovodi do još jednog problema na koji brojni stručnjaci upozoravaju. Videli smo halabuku oko Facebookovog uticaja na razne izbore i propagiranje lažnih vesti, pošto zahvaljujući lenjim ljudima kojima je i Google pretraga previše naporna i koji su zadovoljni da samo čitaju šta im Facebook servira, ova korporacija predstavlja jedan od glavnih izvora informiacija. A ako je društvenim mrežama lako da vam nešto serviraju, zamislite tek potencijal AI asistenata kada siđu u narod kao Facebook danas. Ogroman procenat ljudi će slušati šta im Alexa kaže. To je enorman problem u sferi trgovine, jer će Amazon, u zavisnosti od buduće regulative ovog tipa stealth marketinga, moći da vam uvali šta god oni ili partneri koji plaćaju, požele. Još veći problem biće situacija kada partneri budu politički činioci koji će biti u prilici da plate i oblikuju mišljenje javnosti.

AI asistent nije gomila linija teksta kao rezultat pretrage ili newsfeed, već prijatna ženska osoba (tj. imitacija žene) sa kojom ljudi već sad razvijaju veoma prisan odnos. Kako sistemi mašinskog učenja budu napredovali, AI će, ne samo znati više, već će i bolje imitirati ljudsko biće, što će pored povećane koristi, promeniti ljudske interakcije u svetu koji se sve više otuđuje. Kako odbiti savet vaše verne pomoćnice kada vam, tehnički savršeno glumeći iskrenost, preporučuje da kupite xyz šampon ili da glasate za N.N. političara, iako vam sve drugo ukazuje da je korumpirano đubre?

Lakoća pristupa, koji zahteva daleko manje napora čak i od skrolovanja po newsfeedu, i personalizovana metoda prezentacije podataka čini AI asistente veoma potentnim sredstvima propagande, kako ekonomske, tako i političke, što je tema na koju ćemo se sigurno vraćati kako AI asistenti budu postajali mainstream.

Dečija igra

Priča o nadzoru, slanju preko interneta i korporativnoj obradi svega što kažete, dobila je i mračniju verziju, ako je to moguće, kada se tokom protekle godine nanizalo nekoliko skandala jer se ispostavilo da su razne pričljive igračke, iliti dečiji ekvivalenti ličnog asistenta, slale matičnim kompanijama sve što su deca rekla i podatke iz dečijeg okruženja.

Nemačka federalna agencija, u čijoj su nadležnosti između ostalog i telekomunikacije, kolokvijalno zvana Bundesnetzagentur (BNetzA ili punim nazivom Bundesnetzagentur für Elektrizität, Gas, Telekommunikation, Post und Eisenbahnen), prošle godine je pod pretnjom kaznom od 25.000 evra, naložila svim roditeljima da unište My Friend Kayla (Moja prijateljica Kajla) lutke, čiji je glavni selling point bio, ne samo da pričaju, već da putem obrade glasovno-tekstualnog protokola mogu i da vode konverzaciju sa detetom. Ispostavilo se, međutim, da su svi podaci istovremeno prodavani kompaniji koja se bavi analizom glasa u bezbednosne svrhe (možda je u pitanju misija za zaista rano otkrivanje terorista). Prošle godine je pod pritiskom javnosti i zakonodavaca Mattel obustavio razvoj AI bejbi monitora. Pritisak je potekao od činjenice da je prethodni pokušaj Mattelovog proizvoda koji razgovara, Hello Barbie, bio prepun bezbednosnih propusta, te je lutka vašeg deteta mogla da bude hakovana i korišćena kao prislušni uređaj. Načinićemo digresiju i pomenuti da je kompanija Dizni trenutno pod tužbom zbog toga što 42 njihove aplikacije špijuniraju decu, a pride je sigurno da će se i ova korporacija uključiti u pomamu za AI igračkama.

Jezivo je saznanje da vam neko prisluškuje dete dok se igra, kao i činjenica da će podatke i agregatne metapodatke prodati svakom zainteresovanom, ili da će možda probati da suptilno utiču na vaše dete da kupi nešto, ali je još jezivije kad znate da uređaj može biti hakovan i da neko može da proba da manipuliše detetom. Dok će neko iz redova futurističko-utopijski nastrojenih tehnofila braniti upotrebnu vrednost AI ličnih asistenata, niko ne može da kaže da se isplati dati detetu ovakvu igračku, imajući u vidu rizike.

Cortana, napiši zaključak teksta

Cinici često ističu da je razvoj tehnologije nemoguće sputati ili ograničiti, te da će se uvek naći neko zainteresovan i sposoban da tehnologiju razvije, bez obzira na ograničenja u pojedinoj ili većini zemlja. Iako takav fatalistički način razmišljanja verovatno nije validan, on posebno nije validan u sferi potrošačke tehnologije. Teško je sprečiti državni ili paradržavni sistem da razvije viruse (prave ili kompjuterske), pametna oružja ili blockchain rešenja u finansijama ili upravi, ali pametni pojedinci mogu da se klone AI asistenata i AI igračaka, dok pametni pojedinci u vladama mogu da ih zabrane. Dok će države ili organizacije biti voljne da učine sve da se dočepaju nove tehnologije, iako je odluka zvaničnika EU da nije u interesu globalne bezbednosni, ne postoji mnogo građana koji će detetu na crnom tržištu kupiti lutku koja komunicira sa serverima u Somaliji ili nekoj drugoj propaloj državi koja ne kontroliše svoju teritoriju (američki predsednik bi ovo jednostavnije izrazio).

Dobrom delu građana ne bi bio problem da ih država stalno prati, dok god imaju određeni stepen poverenja u dobronamernost i kompetentnost državnih organa, kao i svest o postojanju nadzora nad obaveštajnim aktivnostima. Pravi problem nastaje ako ti podaci dođu do trećih lica, zbog korupcije ili bezbednosnih propusta. Koliko god državnom aparatu, koji načelno postoji da služi građanima, lako može da se desi tako nešto, sa privatnim korporacijama sumnje ni nema. Nisu rizik samo propusti, falinke i kriminalne akcije pojedinaca, u pitanju je celokupni biznis model, podaci su tu da bi se prodavali, a ako dospeju u ruke kriminalaca ili vaših ličnih rivala, možete probati da ih tužite. To sigurno neće sanirati štetu, a plaćanje nadoknade njima predstavlja samo jednu od stavki rashoda u biznis planu, kao kaliranje robe uvozniku banana.

Šta god mislili o vašem personalnom benefitu od AI ličnih asistenata, treba biti svestan rizika, ne samo po vas kao pojedinca, nego i po društvo u celini, kao i činjenice da će korist od širenja ličnih AI pomagača, pametnih uređaja i stavljanja senzora i kamera u sve i svašta, imati jedino korporacije koje stoje iza toga i države orne da uvedu sledeći stepen kontrole populacije.

Srđan BRDAR

 
.rs
AI asistenti i privatnost
Šta mislite o ovom tekstu?
Bezbednost
WWW vodič
Home / Novi brojArhiva • Opšte temeInternetTest driveTest runPD kutakCeDetekaWWW vodič • Svet igara
Svet kompjutera Copyright © 1984-2018. Politika a.d. • RedakcijaKontaktSaradnjaOglasiPretplata • Help • English
SKWeb 3.22
Opšte teme
Internet
Test Drive
Test Run
PD kutak
CeDeteka
WWW vodič
Svet igara



Naslovna stranaPrethodni brojeviOpšte informacijeKontaktOglašavanjePomoćInfo in English

Svet kompjutera