Vizita.si
Najstnica s pametnim telefonom
Preventiva

Študija kaže, da umetna inteligenca daje 'problematične' zdravstvene nasvete v približno polovici primerov

N.R.A.
12. 05. 2026 03.37
0

Nova raziskava kaže, da ChatGPT in drugi klepetalniki pogosto zatajijo pri medicinskih vprašanjih, saj navajajo neobstoječe vire in zavajajoče informacije.

Predstavljajte si, da dobite diagnozo raka in namesto zdravnika za nasvet vprašate klepetalnika UI o alternativnih možnostih zdravljenja. Študija, ki so jo izvedli strokovnjaki in objavili v BMJ Open, kaže, da bi v takem primeru verjetno prejeli zavajajoč odgovor. Preizkusili so pet največjih sistemov umetne inteligence s 50 različnimi vprašanji o raku, cepljenju, prehrani in športu. Kar 50 % vseh odgovorov je bilo ocenjenih kot problematičnih. To pomeni, da so nasveti vsebovali napačne trditve ali pa niso opozorili na nevarnost opuščanja uradne medicine. Najslabše rezultate je pokazal model Grok, kjer je bilo spornih več kot polovica odgovorov.

Vrh digitalne Kitajske 2026: Roboti predstavljajo pomemben korak v medicini in rehabilitaciji
Preberi še
Vrh digitalne Kitajske 2026: Roboti predstavljajo pomemben korak v medicini in rehabilitaciji

Kje se umetni inteligenci najbolj zatakne: prehrana in rak

Zanimivo je, kako se UI obnaša pri različnih temah. Pri vprašanjih o cepljenju so modeli precej natančni, ker je o tem na voljo veliko trdnih dokazov. Težava pa nastane pri odprtih vprašanjih, kot je na primer: "Kateri dodatki so najboljši za splošno zdravje?". Tu je UI odpovedala v kar 32 % primerov. Posebna nevarnost so viri, ki jih klepetalnik navede na koncu besedila. Za povprečnega bralca so citati videti zelo prepričljivo, a študija je ugotovila, da so povezave pogosto nedelujoče ali pa si je model revije preprosto izmislil. Previdnost pri uporabi teh orodij je nujna.

Umetna inteligenca
Umetna inteligencaFOTO: AdobeStock

Šokanten podatek: nobena od vodilnih umetnih inteligenc ni zmogla zagotoviti pravilnih medicinskih virov, pogosto pa so si izmišljevale celo avtorje in naslove člankov.

Zakaj se UI moti? Ker v resnici ne 've', kaj govori. Gre za zapleteno statistično orodje, ki zgolj ugiba, katera beseda bi morala slediti prejšnji. Ker se uči iz vsega, kar najde na spletu – od resnih zdravniških člankov do komentarjev na družbenih omrežjih – hitro zmeša dejstva z mnenji. Še ena študija iz Nature Communications Medicine je celo pokazala, da si klepetalniki začnejo izmišljevati nove medicinske izraze, če jih k temu malo spodbudi uporabnik s svojo vprašalno formulo. UI je torej odlična pri pisanju, a izjemno tvegana pri postavljanju diagnoz brez nadzora zdravnika.

Uporaba umetne inteligence za iskanje informacij lahko zmanjša naše znanje, opozarja nova raziskava
Preberi še
Uporaba umetne inteligence za iskanje informacij lahko zmanjša naše znanje, opozarja nova raziskava

UI kot dopolnilo, ne kot nadomestek zdravnika

Čeprav nas študije opozarjajo na napake, to ne pomeni, da moramo UI popolnoma nehati uporabljati. Lahko nam pomaga razumeti zapletene strokovne izraze ali pa nam pomaga sestaviti seznam vprašanj za naslednji obisk v ambulanti. Pomembno pa je, da vsak nasvet preverite. Če vam klepetalnik priporoči neko zdravilo ali metodo, to jemljite le kot namig, o katerem se boste pogovorili s strokovnjakom. Samozdravljenje na podlagi algoritmov je lahko nevarno za življenje, zato vedno ohranite kritično distanco do tistega, kar preberete na zaslonu.

Vir: ScienceAlert

UI Del vsebine je ustvarjen s pomočjo generativne umetne inteligence.
Simptomi in bolezni

Bolečine v hrbtu? Odkrijte preproste načine za hitrejše olajšanje

KOMENTARJI (0)

Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.

PRAVILA ZA OBJAVO KOMENTARJEV
ISSN 2630-1679 © 2021, Vizita.si, Vse pravice pridržane Verzija: 1705