Un studiu inedit realizat de cercetători de la Universitatea din California, studiu publicat în revista JAMA Internal Medicine, a arătat, fără doar și poate, că inteligența artificială a depășit oamenii într-un domeniu la care nu mulți se așteptau.
Mai exact, autorii studiului au creat un set de 195 de întrebări, întrebări la care ChatGPT a trebuit să răspundă, alături de mai mulți medici. Întrebările au fost alese de pe forumurile de specialitate, acolo unde medicii răspund întrebărilor pacienților.
Spre exemplu, cât de periculos este să înghiți o scobitoare sau care sunt efectele unei contuzii provocate de lovirea la cap cu un obiect metalic. Răspunsurile au fost analizate apoi de o echipă de specialiști, fără ca aceștia să știe care sunt răspunsurile oferite de oameni și care sunt cele oferite de IA.
Rezultatul final a arătat că 78,6% dintre răspunsurile considerate ca fiind cele mai bune au venit de la IA. Motivația? Răspunsurile au oferit o cantitate mult mai mare de informații. În general, textele scrise de ChatGPT au fost de circa patru ori mai ample decât cele ale oamenilor. Apoi, și aici intervine un aspect foarte interesant, au arătat mult mai multă empatie cu pacienții.
Problema cu răspunsurile astea este că, deși sunt politicoase, empatice șamd., ele pot conține erori. Unele care, luate de bune de pacienții, pot duce la efecte nedorite. La urma urmei, totul se bazează pe niște algoritmi, unii care pot da și erori, precum răspunsuri inventate sau soluții incorecte.
În astfel de situații, susțin cercetătorii americani, soluția ar fi una de mijloc. Adică, IA ar putea prelua unele dintre sarcinile medicilor, cum ar fi răspunsurile către pacienți, însă răspunsurile ar trebui întotdeauna verificate și modificate acolo unde este cazul de către o persoană reală.