Jak pomocí AI rozluštit nesrozumitelné zprávy z lékařských vyšetření
Text zpráv z odborných lékařských vyšetření bývá pro laiky často nesrozumitelný. Čeština se v nich míchá s latinou, každé druhé slovo je neznámá…
Jak pomocí AI rozluštit nesrozumitelné zprávy z lékařských vyšetření
Text zpráv z odborných lékařských vyšetření bývá pro laiky často nesrozumitelný. Čeština se v nich míchá s latinou, každé druhé slovo je neznámá zkratka, často jsou zde i překlepy. Jakoby se mezi sebou domlouvali členové tajného bratrstva.
Vyzkoušejte použít AI pro dešifrování těchto textů. Zjistíte, co si o vás lékaři mezi sebou píšou a co vyšetření přesně zjistila.
Vím, že vstupuji na tenký led, proto upozorňuji hned na začátku: Cílem tohoto článku není, abyste se snažili nahradit lékaře. I když AI umí hodně, stále velmi chybuje a v této oblasti jde doslova o život. Jde jen o informovanost, rozhodování tady opravdu zatím nechte na specialistech.
EKG pro laiky
V ukázkách používám bezplatný Microsoft Copilot. Zvolil jsem jeho režim Přesný, kde používá vyšší a chytřejší model GPT.
Lékařské zprávy nemusíte přepisovat, nahrajte je AI jako obrázek. Dokážou si s tím poradit. Jen velmi doporučuji odstranit z obrázku veškeré osobní a kontaktní údaje, nechat jen části, které chcete vysvětlit. Tyto nástroje totiž mohou vložená data používat pro svůj další trénink.
Do Copilotu jsem nahrál obrázek a požádal ho: Přikládám lékařskou zprávu z preventivního vyšetření EKG. Přečti ji a podrobně mi jako laikovi vysvětli, co se v ní píše.
Shrnutí je pěkné, ale možná příliš stručně a jestli nejste z oboru, pořád je leckde velmi odborné. Můžete se ale začít doptávat na jednotlivé podrobnosti. Například: Podrobněji vysvětli bod Rs III, rsr V1. Co to přesně znamená?
Jestli vysvětlení není dostatečné, ptejte se dál. Když třeba Copilot sklouzne k odborným termínům, požádejte ho o vysvětlení, kterému porozumí i laik.
Na tyto podrobnosti ve zprávách z vyšetření se samozřejmě můžete ptát lékařů. Jen je možné, že na vás nebudou mít tolik času, jaký si můžete vyhradit pro vlastní konverzaci s AI. Copilot je navíc nekonečně trpělivý…
Nyní jsem do něj nahrál zprávu z echokardiografického vyšetření srdce. Odpověď byla delší, na ukázku jsem překopíroval jen část týkající se závěrů.
Copilot zase trochu zapomněl, že jsem po něm chtěl laické vysvětlení. Tak se zeptám znovu: Vrať se k části RES s výsledky vyšetření. Popsal jsi to velmi odborně, potřebuji ale vysvětlení pro úplné laiky. Vyhni se složitým lékařským termínům, vysvětli mi to víc lidsky.
Ještě si pojďme hrát dál: Přikládám obrázek z laboratorního vyšetření krve. Podrobně mi jako laikovi vysvětli, co tyto řádky a uvedené hodnoty znamenají. Odpověď:
V poslední ukázce je zpráva z vyšetření zraku, konkrétně druhý pokus, kdy jsem požádal o vysvětlení číselných kódů tak, aby to pochopil laik.
K aktuální zprávě můžete třeba nahrát i dokument ze staršího vyšetření a požádat AI, aby oba porovnala a zhodnotila vývoj jednotlivých ukazatelů. Tento obrázek je z ChatuGPT:
Je to AI, nezapomeňte
Zprávy z vyšetření se daly dřív zkoumat i prostřednictvím běžného vyhledávání. Informací na internetu je dostatek. AI k tématu ale přidá kontext, vysvětlí, co není jasné, a můžete se ptát na podrobnosti, které vás zajímají – podobně, jako byste se bavili s živým člověkem.
Jen stále mějte v hlavě, že je to jen AI. Může se mýlit a sama vám to neřekne. Když se vám něco nezdá, zkuste se třeba zeptat trochu jiným způsobem. Zejména závažnější věci si vždy nechte potvrdit lékařem a jen on ať také rozhodne o tom, jak je léčit.
Jak moc se dá AI u lékařských témat věřit?
Projekt Open Medical-LLM Leaderboard zjišťuje a ověřuje, jak si konverzační AI poradí s tématy, která souvisejí se zdravotnictvím. V tomto oboru je pochopitelně přesnost a správnost extrémně důležitá.
Projekt vytvořil platformu pro hodnocení a porovnávání výkonnosti jazykových modelů na mnoha lékařských úlohách a souborech dat. Hodnotí lékařské znalosti a schopnosti zapojených modelů odpovídat na otázky. Jako hlavní hodnotící metriku používá přesnost, měří procento správných odpovědí.
Další podrobnosti a třeba i grafy s výsledky najdete na této stránce. Nejdůležitější je asi tento závěr: Komerční modely jako GPT-4-base a Med-PaLM-2 dosahují v různých souborech lékařských dat konzistentně vysokých výsledků přesnosti a prokazují vysokou výkonnost v různých lékařských oblastech. … Komerční i open-source modely dosahují dobrých výsledků v úlohách, jako je porozumění a uvažování nad vědeckou biomedicínskou literaturou a uplatňování klinických znalostí a rozhodovacích dovedností.
GPT-4 v tomto rozsáhlém testu dosáhl průměrného skóre 84 %. Jelikož z GPT-4 vychází bezplatný Copilot (jeho režimy Kreativní a Přesný), můžeme toto hodnocení do značné míry vztáhnout i na tento nástroj.
Jiná ze studií zkoumala samotný GPT-4. Došla k tomuto závěru: ChatGPT dosáhl 87% přesnosti bez výběru a 97% přesnosti s výběrem po vyloučení 16 obrázkových kvízů. Při analýze výkonu podle typu kvízu ChatGPT vynikal v kategorii Diagnóza, kde dosáhl 89% přesnosti bez výběru a 98% s výběrem. Přestože v ostatních kategoriích bylo méně případů, výkonnost ChatGPT zůstala konzistentní. Ve většině lékařských oborů prokázal dobrý výkon; nejnižší přesnost však vykazoval v oboru Genetika, a to 67 %.
Přečtěte si také: