Prijava
Lola Magazin
  • FEMINIZAM
  • PORODICA
  • ZDRAVLJE
  • ZABAVNIK
  • SEX
  • AKTUELNOSTI
  • ŽIVOT
  • KOLUMNE
  • AUTORKE
Čitanje: Oprez: Ova pitanja ne postavljajte ChatGPT-u
Podijeli
Lola MagazinLola Magazin
Font ResizerAa
  • FEMINIZAM
  • PORODICA
  • ZDRAVLJE
  • ZABAVNIK
  • SEX
  • AKTUELNOSTI
  • ŽIVOT
  • KOLUMNE
  • AUTORKE
Pretraga
  • FEMINIZAM
  • PORODICA
  • ZDRAVLJE
  • ZABAVNIK
  • SEX
  • AKTUELNOSTI
  • ŽIVOT
  • KOLUMNE
  • AUTORKE
Loguj se Prijava
Zaprati Lolu
© 2022 Lola
Lola Magazin > Blog > AKTUELNOSTI > Oprez: Ova pitanja ne postavljajte ChatGPT-u
AKTUELNOSTIIZDVOJENO

Oprez: Ova pitanja ne postavljajte ChatGPT-u

Lola Magazin
Objavljeno 14/12/2024 0:52
Lola Magazin
Podijeli
Podijeli

Vještačka inteligencija je sve više prisutna u našim životima i svakim danom se sve više koristi, a popularnost AI četbot aplikacija, kakve su ČetGPT i Gugl Gemini, stalno raste.

Ovi četbot-ovi ljudima su privlačni zbog svoje sposobnosti da, na postavljena pitanja, generišu odgovore veoma bliske ljudskoj komunikaciji.

Međutim, njihovo oslanjanje na velike jezične modele (LLM) nije bez rizika, pa je važno razumijeti da neke podatke i informacije nikada ne bi trebalo djeliti sa AI četbot-ovima.

Preporučeno

Radni dan koji traje 24h – mame domaćice!
40 pitanja koja trebate da postavite svom partneru ako želite da srušite njegove zidove i saznate ko su oni zaista
Može li vještačka inteligencija ugroziti radna mjesta u BiH?

Naime, lični podaci korisnika podijeljni sa AI četbot-ovima mogu biti otkriveni i zloupotrijebljeni, prije svega, zbog toga što se mogu se naći među podacima koji se koriste za treniranje drugih AI botova. Do njih tada mogu da dođu i kod kompanije koji stoje iz ovih AI alata i njihovih partnera, kao i hakeri, ako provale u sistem.

Zato, ovih 5 vrsta podataka nikada ne bi trebalo da djelite sa vještačkom inteligencijom:

Podaci o finansijama

Ako AI četbot-ove koristite kao lične finansijske savjetnike, rizikujete da informacije o svojim finansijama izložite sajber kriminalcima koji bi to mogli da iskoriste da isprazne vaše račune ili da ih zloupotrebe za druge vrste prevara.

Uprkos tome što kompanije često tvrde da su podaci iz konverzacije korisnika i AI-ja anonimni, neki zaposleni u tim kompanijama ili njihovi partneri treće strane bi i dalje mogli da imaju pristup njima.

Četbot bi, na primjer, mogao da analizira potrošačke navike korisnika da bi mu ponudio savjete, ali ako tim podacima neko pristupi neovlašćeno, oni bi mogli biti zloupotrebljeni da onoga čiji su profilišu kao prevaranta, npr. da budu iskorišćeni za phishing imejlove koje imitiraju vašu banku.

Šifre

Dijeljenje lozinki različitih naloga na internetu je generalno rizično, na šta stručnjaci za sajber bezbjednost stalno upozoravaju. Isto važi i za velike jezične modele na kojima se AI chatbot-ovi zasnovani, pa se takvim potezom izlažete velikim rizicima.

Zato, da biste se zaštitili, šifre svojih onlajn naloga nikada ne djelite sa četbot-ovima, čak ni kada bi to moglo da bude u svrhu rješavanja nekog problema.

Povjerljive informacije o radnom mjestu

Tehnološki giganti Epl, Samsung i Gugl svojim zaposlenima su ograničili upotrebu AI četbot-ova na radnom mjestu, nakon što su te kompanije primjetile slučajeve nenamjernog objavljivanja osjetljivih informacija u komunikaciji sa vještačkom inteligencijom.

Tako je jedan programer u Samsungu koristio ČetGPT kao pomoć u kodiranju i time nehotice podijelio osjetljiv kod sa generativnim AI-jem. Mnogi zaposleni se oslanjaju na četbot-ove da bi sumirali zaključke poslovnih sastanaka ili automatizuju repetitivne zadatke koji se ponavljaju, ali time ulaze u rizik od izlaganja osjetljivih podataka.

Zbog svega toga, veoma je važno voditi računa o rizicima vezanim za dijeljenje podataka u vezani sa poslom, ističe MakeUseOf.

Adresa i drugi lični podaci

Osjetljivi lični podaci kao što su adresa i mjesto stanovanja, datum rođenja, matični broj ili podaci o zdravlju, mogu biti iskorišćeni za identifikaciju i lociranje njihovog vlasnika, pa ih je zato potrebno zadržati za sebe uvijek kada je to moguće.

Zato je potrebno upoznati se sa pravilima privatnosti četbot-a da bi se razumjeli rizici. Zato izbjegavajte postavljanje pitanja koja nenamjerno mogu da otkriju identitet i/ili lične podatke. Budite posebno oprezni i uzdržite se od dijeljenja medicinskih podataka.

Lično stanje i intimne misli

AI četbot-ovi možda mogu da budu dobri sagovornici, ali im nedostaje znanje o stvarnom svijetu, zato na npr. pitanja o (mentalnom) zdravlju mogu da ponude samo generičke odgovore.

To znači da lijekovi ili tretmani koje predlažu možda nisu adekvatni za specifične potrebe korisnika i da mogu da budu štetni po zdravlje.

o takođe važi i za upozorenja u vezi sa zaštitom privatnosti. Ako se neko zlonamjeran dokopa vaših intimnih misli, vaša privatnost može biti kompromitovana, a intimne misli iskorišćene kao podaci za treniranje vještačke inteligencije.

Zbog svega toga AI četbot-ove treba koristiti za razmjenu opštih informacija i znanja, i od njih ne očekivati profesionalnu podršku ili terapiju, piše Glas Srpske.

 

Izvor: provjereno.info

TAGOVANO:chatgptpitanjavještačka inteligencija
Podijeli članak
Twitter Email Kopiraj link Štampaj
Autor Lola Magazin
Follow:
Sve smo mi Lole. Bar jednom u životu.
Prethodni članak Sociolozi upozoravaju na Tik Tok opasnosti, MUP RS ponudio rješenja za zaštitu djece
Sledeći članak Google saopštio: Šta smo najviše tražili u ovoj godini

Slični postovi

PORODICAIZDVOJENO

A mama, kako ti znaš tu igru? A jesi li se ti igrala te igre kad si bila mala? Pokazujem joj prstom da ćuti. A da, ne smijem pričati. Možemo li ispočetka?

Autor Lola Magazin 7 min za čitanje
AKTUELNOSTIIZDVOJENO

Nobelovac upozorio ljude o AI: Još nisu shvatili šta slijedi

Autor Lola Magazin 1 min za čitanje
ZABAVNIKIZDVOJENO

Nemate s kim da se mazite? Tu je japanski AI hrčak

Autor Lola Magazin 2 min za čitanje
Lola Magazin
  • Kontakt
  • Impressum
  • Prava korišćenja
  • Kontakt
  • Impressum
  • Prava korišćenja

© Prava zadržava Lola Magazin

Pozdrav od Lole!

Prijavi se ako možeš