Subota, 17 svibnja, 2025

Zadnje objave

Možda vam se sviđa

Sigurnost na prvom mjestu: 7 vrsta podataka koje ne smijete unositi u AI modele

Umjetna inteligencija postaje sve prisutnija u svakodnevnom životu, bilo privatno ili poslovno. AI alati poput ChatGPT-ja, Geminija ili Perplexityja koriste se za bržu i učinkovitiju obradu informacija. Iako korisni, ti alati mogu predstavljati sigurnosni rizik ako se ne koriste oprezno.

Ljudi često, želeći što prije završiti neki zadatak, nesvjesno dijele osjetljive informacije s AI chatbotovima. Iako se AI modeli doživljavaju kao bezopasni alati, njih treba tretirati kao da razgovarate s osobom. Informacije koje ne biste rekli strancu, ne biste smjeli dijeliti ni s chatbotom.

Tvrtke koje razvijaju AI alate uglavnom tvrde da ne koriste korisničke razgovore za dodatno treniranje modela. No, to ne znači da vaši podaci nestaju. Često ostaju zapisani u povijesti računa, dostupni svakome tko ima pristup vašem uređaju.

Zato je važno znati što nikada ne bi trebalo dijeliti s AI modelima.

1) Osobni podaci

Ne bi trebalo unositi puno ime, adresu, broj osobne iskaznice ili putovnice u razgovore s AI-jem. Isto vrijedi za fotografije dokumenata. Ako radite životopis, neka AI model napravi samo predložak koji vi kasnije ručno popunjavate.

2) Financijske informacije

Nikada ne dijelite broj kartice, IBAN, PIN ili pristupne podatke za internet bankarstvo. Ako trebate savjet o financijama, koristite izmišljene scenarije bez stvarnih podataka.

3) Lozinke i korisnička imena

Lozinke je zabranjeno dijeliti s AI modelima, čak i ako se čini praktično. Kao što ne biste dijelili ključeve svog doma s nepoznatima, tako ne dijelite lozinke.

4) Privatni i osjetljivi podac

Chatbot nije prijatelj ni ispovjednik. Ne unosite informacije o ljubavnim vezama, obiteljskim sukobima ili zdravlju. Čak ni naizgled bezazleni detalji mogu postati problematični.

5) Podaci o tvrtki

Ne dijelite ugovore, nacrte, interne prezentacije, poslovne planove ni financijske izvještaje. Tvrtke često blokiraju pristup AI alatima na službenim uređajima upravo zbog sigurnosnog rizika.

6) Neprimjeren ili eksplicitan sadržaj

Pitanja s eksplicitnim ili nasilnim sadržajem ne samo da neće biti obrađena, već mogu biti prijavljena nadležnim službama. AI modeli mogu detektirati sumnjive upite i automatski reagirati.

7) Zdravstveni podaci

Mnogi AI modele koriste umjesto “doktora Googlea”. Iako je u redu zatražiti pojašnjenje nalaza, izbjegavajte konkretne osobne medicinske podatke. Bolje je formulirati upit općenito, primjerice prema spolu i dobi, piše Zimo.

Ako postoji sumnja treba li nešto podijeliti ili ne, vrijedi se voditi jednostavnim pravilom – ako informaciju ne biste željeli vidjeti na oglasnoj ploči, ne biste je trebali unositi ni u razgovor s AI alatom.

Zaštita privatnosti i podataka treba biti na prvom mjestu. Svaki korisnik snosi odgovornost za ono što dijeli s digitalnim alatima. Oprez nije pretjerana mjera, već nužnost u svijetu brzog tehnološkog razvoja.

Korištenje AI modela ima brojne prednosti, ali sigurnost i diskrecija uvijek moraju biti prioritet.

Prijavite se na naš Newsletter

Popularno