Nedjelja, 12 svibnja, 2024
spot_img

Zadnje objave

Možda vam se sviđa

Možemo li vjerovati umjetnoj inteligenciji?

Aplikacije zasnovane na A.I. (umjetnoj inteligenciji) već su duboko ušle u naše živote i sve više će ih oblikovati u budućnosti, čak i u osjetljivim područjima kao što je medicina. Ali A.I. otvara i velike mogućnosti u proizvodnji hrane i drugih proizvoda koje svakodnevno koristimo, te već sada može učiniti proizvodnju ekonomičnijom. No, jesu li procesi koje kontrolira A.I. pouzdani i jesu li proizvodi koji su razvijeni pomoću umjetne inteligencije bez rizika?

  1. Kontrola kvaliteta i sigurnost hrane – S jedne strane, A.I. omogućava precizno praćenje podrijetla sirovina što poboljšava transparentnost. S druge strane, lako otkriva potencijalne zagađivače i nedostatke u proizvodu čime ne samo da poboljšava kvalitetu, već i smanjuje rizik od mogućih bolesti koje se prenose hranom.
  2. Manje otpada od hrane – A.I. može analizirati obrasce i obim kupovine i potrošnje, osobne preferencije kao i osobine datih kultura i tržišta. Na osnovu podataka može ponuditi kupcima personalizirane prehrambene proizvode i usluge, smanjujući šanse za nepromišljenu kupovinu. Drugim riječima, bit će manje hrane za bacanje što će značajno smanjiti ogromne količine otpada od hrane.
  3. Razvoj proizvoda – Umjetna inteligencija može generirati nove recepte na osnovu sastojaka i profila ukusa uzimajući u obzir sve kodove i propise čime se osigurava sigurnost hrane kao i odličan ukus. Nedavno je HELL u potpunosti razvio energetski napitak uz pomoć A.I., optimalno formulirajući njegove sastojke u svim aspektima – regulativu, funkciju, iskustvo ukusa – pa čak i probajući napitak koji je kreirala.
  4. Efikasnost – A.I. optimizira pakiranje, skladištenje i transport. Može pomoći u smanjenju troškova transporta i vremena isporuke poboljšavajući korištenje sredstava. Također uzima u obzir faktore kao što su promjene u putevima i vremenskim uvjetima prilikom planiranja transportnih ruta.
  5. Rekordna brzina inovacije – A.I. je sposobna za nevjerovatno brzu obradu i analizu podataka što omogućava kompanijama da brzo razviju i lansiraju nove proizvode. Dok je u prošlosti za razvoj novog proizvoda trebalo 1-2 godine, danas se taj proces svodi na nekoliko tjedana, a u nekim slučajevima i dana.

Uobičajeno pitanje koje se javlja kada se koristi A.I. je odgovornost programera i korisnika. Do sada se ovaj problem najčešće pojavljivao kod automobila koji samostalno voze: na primjer, tko je odgovoran ako automobil koji samostalno vozi izazove nesreću, proizvođač automobila ili programer? Vrlo je važno razumjeti da umjetna inteligencija, baš kao i kompjuter, radi samo ono što joj čovjek kaže, tako da ako zahtjev ili instrukcija nisu pravilno usmjereni, možda ishod neće biti dobar. Zbog toga je potreban okvir koji utvrđuje odgovornosti i rukovoditelja i A.I. Kao konkretan korak u tom pravcu, Europski parlament je usvojio prvi sveobuhvatni set pravila za upravljanje A.I. rizicima u lipnju 2023., nakon dugih  konsultacija koje su prethodile.

Sigurnost, međutim, ne znači samo pouzdanost proizvoda u slučaju robe razvijene uz pomoć A.I., već i zaštitu njegovog dizajnera i distributera. Procesi i alati koje je predložila A.I. moraju se tretirati kao da ih je razvilo ljudsko biće ili tim ljudi, zaštićeni na isti način kako u digitalnom tako i u fizičkom prostoru, kao da su prethodno razvijeni na standardni način. U prošlosti su, na primjer, recepti i formule bili pažljivo zaključani, a tajne su se prenosile s oca na sina bez pisanog materijala. Ovo se nije promijenilo ni danas, te sa samo ograničenim pristupom, duplikat se često pohranjuje u strogo čuvanom trezoru. Jedina razlika je u tome što nije na papiru već na mediju za prenos podataka.

Pridržavajući se najstrožih sigurnosnih principa, mnoge kompanije širom svijeta sada koriste umjetnu inteligenciju i tehnologije strojnog učenja kako bi proizvele odlične, visokokvalitetne proizvode zasnovane na još kontroliranijim pristupima s više podataka i više kriterija.

Prijavite se na naš Newsletter

Popularno