Umjetna inteligencija postaje sve prisutnija u svakodnevnom životu, bilo privatno ili poslovno. AI alati poput ChatGPT-ja, Geminija ili Perplexityja koriste se za bržu i učinkovitiju obradu informacija. Iako korisni, ti alati mogu predstavljati sigurnosni rizik ako se ne koriste oprezno.
Ljudi često, želeći što prije završiti neki zadatak, nesvjesno dijele osjetljive informacije s AI chatbotovima. Iako se AI modeli doživljavaju kao bezopasni alati, njih treba tretirati kao da razgovarate s osobom. Informacije koje ne biste rekli strancu, ne biste smjeli dijeliti ni s chatbotom.
Tvrtke koje razvijaju AI alate uglavnom tvrde da ne koriste korisničke razgovore za dodatno treniranje modela. No, to ne znači da vaši podaci nestaju. Često ostaju zapisani u povijesti računa, dostupni svakome tko ima pristup vašem uređaju.
Zato je važno znati što nikada ne bi trebalo dijeliti s AI modelima.
1) Osobni podaci
Ne bi trebalo unositi puno ime, adresu, broj osobne iskaznice ili putovnice u razgovore s AI-jem. Isto vrijedi za fotografije dokumenata. Ako radite životopis, neka AI model napravi samo predložak koji vi kasnije ručno popunjavate.
2) Financijske informacije
Nikada ne dijelite broj kartice, IBAN, PIN ili pristupne podatke za internet bankarstvo. Ako trebate savjet o financijama, koristite izmišljene scenarije bez stvarnih podataka.
3) Lozinke i korisnička imena
Lozinke je zabranjeno dijeliti s AI modelima, čak i ako se čini praktično. Kao što ne biste dijelili ključeve svog doma s nepoznatima, tako ne dijelite lozinke.
4) Privatni i osjetljivi podac
Chatbot nije prijatelj ni ispovjednik. Ne unosite informacije o ljubavnim vezama, obiteljskim sukobima ili zdravlju. Čak ni naizgled bezazleni detalji mogu postati problematični.
5) Podaci o tvrtki
Ne dijelite ugovore, nacrte, interne prezentacije, poslovne planove ni financijske izvještaje. Tvrtke često blokiraju pristup AI alatima na službenim uređajima upravo zbog sigurnosnog rizika.
6) Neprimjeren ili eksplicitan sadržaj
Pitanja s eksplicitnim ili nasilnim sadržajem ne samo da neće biti obrađena, već mogu biti prijavljena nadležnim službama. AI modeli mogu detektirati sumnjive upite i automatski reagirati.
7) Zdravstveni podaci
Mnogi AI modele koriste umjesto “doktora Googlea”. Iako je u redu zatražiti pojašnjenje nalaza, izbjegavajte konkretne osobne medicinske podatke. Bolje je formulirati upit općenito, primjerice prema spolu i dobi, piše Zimo.
Ako postoji sumnja treba li nešto podijeliti ili ne, vrijedi se voditi jednostavnim pravilom – ako informaciju ne biste željeli vidjeti na oglasnoj ploči, ne biste je trebali unositi ni u razgovor s AI alatom.
Zaštita privatnosti i podataka treba biti na prvom mjestu. Svaki korisnik snosi odgovornost za ono što dijeli s digitalnim alatima. Oprez nije pretjerana mjera, već nužnost u svijetu brzog tehnološkog razvoja.
Korištenje AI modela ima brojne prednosti, ali sigurnost i diskrecija uvijek moraju biti prioritet.