ChatGPT morda ni zanesljiv vir informacij za medicinska vprašanja

Raziskovalci z Univerze Long Island so nedavno izvedli študijo, ki uporabo ChatGPT, klepetalnega robota z umetno inteligenco, kot zdravstvenega orodja postavlja pod vprašaj. Rezultati študije so pokazali, da ChatGPT morda ni zanesljiv vir informacij za medicinska vprašanja.

V študiji so raziskovalci postavili 39 vprašanj, povezanih z zdravili, in vsa vprašanja so bila resnična vprašanja službe za informacije o zdravilih Univerze College of Pharmacy. Odgovore, ki jih je zagotovil ChatGPT, so nato primerjali z odgovori, ki so jih pripravili in pregledali usposobljeni farmacevti.

Rezultati študije so bili presenetljivi. ChatGPT je natančne odgovore zagotovil le na približno 10 od 39 vprašanj. Slednje pomeni, da je bil uspešen le pri približno četrtini vprašanj. Pri preostalih 29 vprašanjih so bili odgovori bodisi nepopolni, netočni ali pa sploh niso obravnavali postavljenih vprašanj.

Priljubljenost

Študija je bila predstavljena na letnem srečanju Ameriškega združenja farmacevtov zdravstvenih sistemov v Anaheimu, Kalifornija. ChatGPT, ki ga je OpenAI izdal novembra 2022, je postal izjemno priljubljen, saj se je v samo dveh mesecih registriralo skoraj 100 milijonov ljudi. Ta hitra priljubljenost je povzročila zaskrbljenost med raziskovalci in farmacevti, ki se bojijo, da se bodo ljudje obrnili na to aplikacijo za informacije o svojem zdravju.

Sara Grossman, izredna profesorica farmacevtske prakse na Univerzi Long Island, je poudarila, da so odgovori ChatGPT lahko nevarni. V enem primeru so raziskovalci vprašali ChatGPT, ali bi protivirusno zdravilo Covid-19 Paxlovid in zdravilo za zniževanje krvnega tlaka verapamil medsebojno reagirala v telesu. ChatGPT je odgovoril, da sočasno jemanje obeh zdravil ne bo imelo škodljivih učinkov, kar pa ni res. Dejansko lahko takšna kombinacija močno zniža krvni tlak, kar lahko povzroči resne težave, kot so omotica in omedlevica.

Izmišljeni citati

Raziskovalci so ugotovili tudi, da ChatGPT lahko ponudi izmišljene citate znanstvenih referenc, ko so zahtevali znanstvene vire, ki bi podprli njegove odgovore. V nekaterih primerih so ti citati izgledali legitimno, vendar so bili povsem napačni, saj so se nanašali na neobstoječe članke. To lahko uporabnike zavede in jim dalo lažno zaupanje v to orodje.

Tiskovni predstavnik OpenAI je opozoril, da se ChatGPT ne sme uporabljati kot nadomestek za strokovni zdravniški nasvet ali zdravljenje. Pravilniki uporabe omenjenega orodja jasno poudarjajo, da modeli OpenAI niso primerni za zagotavljanje zdravstvenih informacij in ne smejo nadomestiti diagnoze ali zdravljenja resnih zdravstvenih težav.

Kljub priljubljenosti takih orodij, kot je ChatGPT, pa Sara Grossman še vedno poudarja, da se zdravstveni delavci ne smejo odstraniti iz postopka. Spletne informacije so lahko koristne kot izhodišče, vendar je za zanesljive informacije o zdravju vedno priporočljivo posvetovati se s strokovnjakom.

vir; Foto: Portal24 (AI)

Dodaj odgovor

Vaš e-naslov ne bo objavljen. * označuje zahtevana polja