Opasnosti umjetne inteligencije i kako se zaštititi!

Kada govorimo o umjetnoj inteligenciji, prva negativna konotacija koja nam padne na pamet je nešto ‘neplanirano’: što ako stvorimo nad-inteligentnu umjetnu inteligenciju koja bi nam mogla postati opasnost?

No, to je samo dio negativnih strana AI (artifitial intelligence = umjetna inteligencija).

Što je s ljudima koji ju namjerno žele upotrebljavati u negativne svrhe, poput raznih kriminalnih radnji?

Institut Future of Humanity, Centar za studije egzistencijalnih rizika i neprofitna Elon Musk organizacija za AI proveli su razna istraživanja upravo na temu zlonamjernih uporaba umjetne inteligencije, te s kojim bi se negativnim posljedicama istih potencijalno mogli susresti u narednih 5 godina i što možemo napraviti kako bi te iste posljedice spriječili.

Koje su prijetnje?

Prva potencijalna opasnost leži u automatiziranju zlonamjernih radnji koje su prije zahtijevale ljudski rad (primjerice lažni mailovi od banke s namjerom pristupa osobnim podacima korisnika). AI bi tu mogla automatizirati puno posla, mapiranjem osobnih i poslovnih konekcija individue i samim time generiranjem poruke na koju bi meta najprije ‘nasjela’. Kad razmislite, danas postoji puno naprednih chatbotova koji su u stanju voditi i održavati razgovor! Ovakav napad zvuči kompleksno, ali kada postoji AI koja će većinu posla napraviti bez ljudske pomoći, i to bez cijene, onda se to pretvara u veći problem.

Drugo pitanje glasi: hoće li AI formirati nove dimezije postojećih prijetnji? Hoće li otići za nivo više od lažnih mailova i generirati audio i video? Politički uredi, nadzorne kamere i slično su samo neki od aspekata gdje bi se ovakva praksa potencijalno mogla iskoristiti. Ne zaboravimo na činjenicu da AI, osim što određene poslove može obavljati na ljudskoj razini, može ih obavljati u nebrojeno više puta i kopija.

Primjer takvog napada je tzv. “deepfake”, face swapping tehnologija koja lica poznatih zvijezda stavlja na pornografske klipove bez njihovog dopuštenja.

Što nam je za činiti?

Glavni savjeti kako bismo što bolje sebe i druge zaštitili su:

  • AI istraživači trebaju biti svjesni kako se njihov program može koristiti u zlonamjerne svrhe
  • Tvorci polica trebaju naučiti o mogućim prijetnjama od tehničkih eksperata
  • Čitav AI svijet trebao bi se dobro educirati o sigurnosti od strane cyber stručnjaka
  • AI etički kodeksi treble bi se razviti i poštivati
  • U ove diskusije trebali bi biti uključeni ne samo AI i cyber stručnjaci, već i šira javnost.

Drugim riječima, edukacija o mogućim posljedicama kao i moralne smjernice trebaju se slijediti i prakticirati. Svakako je bolje biti educiran nego neznati što se događa oko nas i na taj način ćemo moći na vrijeme reagirati i spriječiti eventualnu štetu. Sigurnost je uvijek na prvom mjestu!

Izvor: The Verge

0 Komentara

    Napišite komentar

    Login

    Welcome! Login in to your account

    Remember me Lost your password?

    Lost Password

    O nama Pišite nam Twitter Facebook