ChatGPT చెప్పిందని చేసాడు, ఆసుపత్రిలో పడ్డాడు: AIని నమ్మొద్దంటు డాక్టర్ల సలహా..

ChatGPT చెప్పిందని చేసాడు, ఆసుపత్రిలో పడ్డాడు: AIని నమ్మొద్దంటు డాక్టర్ల సలహా..

ఈ రోజుల్లో ChatGPT వంటి ఇంటర్నెట్ AI టూల్స్ ప్రతి ప్రశ్నకు సమాధానం ఇస్తాయని, ఏది అడిగిన  వెంటనే చెప్పేస్తుందని అందరు అంటుంటారు. కానీ ఆరోగ్యానికి సంబంధించి చెప్పే సలహాలు నమ్మొచ్చా...? అంటే దీనికి సమాధానం ప్రస్తుతం లేదు. ఎందుకంటే అమెరికాలో ఓ 60 ఏళ్ల వ్యక్తి కథ అందరినీ దిగ్భ్రాంతికి గురిచేసింది. అతను ChatGPTని ఉప్పు ప్రత్యామ్నాయాల గురించి అడిగి, దాని సలహా ఆధారంగా సోడియం బ్రోమైడ్‌ వాడడం  స్టార్ట్ చేసాడు. దింతో అతనికి విషప్రయోగం జరిగింది, ఇదొక అరుదైన  ప్రమాదకరమైన పరిస్థితి. చివరికి ఆసుపత్రిలో చేరిన తర్వాత మతిస్థిమితం కోల్పోయి, మానసిక ఆరోగ్య సమస్యలను ఎదుర్కొంటున్నారు. 

'అన్నల్స్ ఆఫ్ ఇంటర్నల్ మెడిసిన్ క్లినికల్ కేసులు'లో దీని గురించి వివరించారు. ఒక వ్యక్తికి ChatGPT ఉప్పుకి బదులు బ్రోమైడ్‌ వాడమని సలహా ఇచ్చింది. దింతో అతను  బ్రోమైడ్‌ మూడు నెలల వాడటం వల్ల అతని బ్రోమైడ్ స్థాయిలు 1700 mg/Lకి పెరిగాయి, ఇది సాధారణం కంటే వందల రెట్లు ఎక్కువ. దింతో  డాక్టర్లు ఆశ్చర్యపోయి అతనికి IV సెలైన్స్ తో చికిత్స అందించగా మూడు వారాలకి కోలుకున్నాడు. దీనిని  ఒక ఉదాహరణగా తీసుకొని AI ఇచ్చే ఆరోగ్య సలహాలు ఒకోసారి చాలా ప్రమాదకరం కావచ్చని హెచ్చరిస్తున్నారు.

 ChatGPT ఇచ్చే  ఆరోగ్య సలహాలు ఎందుకు నమ్మొద్దు: ChatGPT వంటి AI టూల్స్ సాధారణ సమాచారాన్ని అందిస్తాయి, కానీ ChatGPT  అనేది వైద్యం చేసే డాక్టర్ కాదు అని తెలుసుకోవాలి. ఎందుకంటే ChatGPT  వ్యక్తిగత ఆరోగ్య పరిస్థితులను అర్థం చేసుకోలేదు. AIకి వైద్య శిక్షణ లేదు అందువల్ల తప్పు సలహాలు ఇవ్వొచ్చు.

 తప్పుడు సమాచారం అంటే ఏమిటి, ఎందుకు వ్యాపిస్తుంది: ఆరోగ్యానికి సంబంధించి తప్పుడు సమాచారం అనేది తప్పుడు లేదా తప్పుదారి పట్టించే కంటెంట్. సోషల్ మీడియా, బ్లాగులు, వీడియోల ద్వారా ఈజీగా వ్యాపిస్తుంది. 

ఏ ఆరోగ్య సమాచారాన్ని నమ్మొచ్చు: ప్రభుత్వ వెబ్‌సైట్‌లు, WHO, వైద్య సంస్థలు లేదా వ్యక్తిగత సలహా కోసం డాక్టర్ ని సంప్రదించడం  మంచిది.