Az MI-chatbot rosszul azonosított többek között egy kulcscsonttörést, nem ismerte fel a tuberkulózis "tankönyvi esetét".
Az xAI vezérigazgatójaként is tisztelt Elon Musk október végén jelentette be, hogy a cég Grok chatbotjának funkcióit kibővítették a képes tartalom feldolgozásával, amit az X közösségi platfrom előfizetői ki is próbálhatnak, ha képeket töltenek fel és kérdéseket tesznek fel róluk a mesterséges intelligenciának. Akinél ebből nem következik semmi, az nem véletlenül nem ül Musk helyén, az xAI vezetője ugyanis egyből elkezdte arra biztatni a felhasználókat, hogy küldjék be az orvosi képalkotó eljárásokkal (röntgen, PET, MRI stb.) leleteiket a Groknak elemzésre. A modell ilyen irányú képességéről azt írta, hogy még korai szakaszában van, de már így is elég pontos, később pedig még annál is jobb lesz, írja a bitport.hu.
Musk arra kérte az embereket, hogy adjanak visszajelzést, hol csinálta jól vagy miben tévedett az xAI modellje. Ezt pedig a hírek szerint sokan meg is tették, és a hajmeresztő adatvédelmi vonatkozások ellenére is feltöltötték leleteiket, sőt egyes esetekben még nyilvánosan is megosztották az eredményeiket. A szakértők nem meglepő módon úgy látják, hogy ez nem feltétlenül jó ötlet, tekintettel a chatbotokkal biztonsági hiányosságaira vagy Musk cégeinek átláthatósági problémáira. Ahogy a Vanderbilt Egyetem orvosbiológiai informatikus professzora a The New York Times cikkében felhívja rá a figyelmet, nagyon személyes információról van szó, és nem tudni, hogy a Grok mit fog kezdeni vele.
Azok a felhasználók, akik megosztják egészségügyi adataikat Musk chatbotjával, jó eséllyel azt gondolják, hogy ebben az esetben is védik őket azok a szövetségi törvények, amelyek például az orvosokat is korlátozzák az ilyen információ továbbadásában. A NYT riportjából azonban kiderül, hogy nem ez a helyzet: ha valaki saját maga hozza nyilvánosságra az adatait egy közösségi oldalon, akkor nincs miről beszélni, és ebben az esetben olyan megállapodások sem érvényesek, amelyeket a technológiai cégek az egészségügyi szolgáltatókkal szoktak kötni az információ tárolásáról és használatról. A Groknál viszont csak remélhetik, hogy az xAI tényleg úgy működik, ahogy ők szeretnék.
Másik lényeges szempont, hogy a pontatlan válaszok a betegeket is veszélybe sodorhatják: mint kiderült, az MI-chatbot rosszul azonosított többek között egy kulcscsonttörést, az Elon Musk bejegyzésére reagáló orvosok szerint nem ismerte fel a tuberkulózis "tankönyvi esetét", vagy éppen összetévesztett egy jóindulatú cisztát egy herével. A lényeg nyilván az xAI nagy nyelvi modelljének finomhangolása az így begyűjtött adatok segítségével, de ez nem jelenti, hogy a felhasználókat nem kell tájékoztatni a mesterséges intelligencia hallucinációra való hajlamáról vagy arról a kockázatról, amit az érzékeny személyes adatok külső szereplők általi kibányászhatósága jelent az ilyen rendszerekből.
További részletek a bitport.hu-n.