
ఈ రోజుల్లో ChatGPT వంటి ఇంటర్నెట్ AI టూల్స్ ప్రతి ప్రశ్నకు సమాధానం ఇస్తాయని, ఏది అడిగిన వెంటనే చెప్పేస్తుందని అందరు అంటుంటారు. కానీ ఆరోగ్యానికి సంబంధించి చెప్పే సలహాలు నమ్మొచ్చా...? అంటే దీనికి సమాధానం ప్రస్తుతం లేదు. ఎందుకంటే అమెరికాలో ఓ 60 ఏళ్ల వ్యక్తి కథ అందరినీ దిగ్భ్రాంతికి గురిచేసింది. అతను ChatGPTని ఉప్పు ప్రత్యామ్నాయాల గురించి అడిగి, దాని సలహా ఆధారంగా సోడియం బ్రోమైడ్ వాడడం స్టార్ట్ చేసాడు. దింతో అతనికి విషప్రయోగం జరిగింది, ఇదొక అరుదైన ప్రమాదకరమైన పరిస్థితి. చివరికి ఆసుపత్రిలో చేరిన తర్వాత మతిస్థిమితం కోల్పోయి, మానసిక ఆరోగ్య సమస్యలను ఎదుర్కొంటున్నారు.
'అన్నల్స్ ఆఫ్ ఇంటర్నల్ మెడిసిన్ క్లినికల్ కేసులు'లో దీని గురించి వివరించారు. ఒక వ్యక్తికి ChatGPT ఉప్పుకి బదులు బ్రోమైడ్ వాడమని సలహా ఇచ్చింది. దింతో అతను బ్రోమైడ్ మూడు నెలల వాడటం వల్ల అతని బ్రోమైడ్ స్థాయిలు 1700 mg/Lకి పెరిగాయి, ఇది సాధారణం కంటే వందల రెట్లు ఎక్కువ. దింతో డాక్టర్లు ఆశ్చర్యపోయి అతనికి IV సెలైన్స్ తో చికిత్స అందించగా మూడు వారాలకి కోలుకున్నాడు. దీనిని ఒక ఉదాహరణగా తీసుకొని AI ఇచ్చే ఆరోగ్య సలహాలు ఒకోసారి చాలా ప్రమాదకరం కావచ్చని హెచ్చరిస్తున్నారు.
ChatGPT ఇచ్చే ఆరోగ్య సలహాలు ఎందుకు నమ్మొద్దు: ChatGPT వంటి AI టూల్స్ సాధారణ సమాచారాన్ని అందిస్తాయి, కానీ ChatGPT అనేది వైద్యం చేసే డాక్టర్ కాదు అని తెలుసుకోవాలి. ఎందుకంటే ChatGPT వ్యక్తిగత ఆరోగ్య పరిస్థితులను అర్థం చేసుకోలేదు. AIకి వైద్య శిక్షణ లేదు అందువల్ల తప్పు సలహాలు ఇవ్వొచ్చు.
తప్పుడు సమాచారం అంటే ఏమిటి, ఎందుకు వ్యాపిస్తుంది: ఆరోగ్యానికి సంబంధించి తప్పుడు సమాచారం అనేది తప్పుడు లేదా తప్పుదారి పట్టించే కంటెంట్. సోషల్ మీడియా, బ్లాగులు, వీడియోల ద్వారా ఈజీగా వ్యాపిస్తుంది.
ఏ ఆరోగ్య సమాచారాన్ని నమ్మొచ్చు: ప్రభుత్వ వెబ్సైట్లు, WHO, వైద్య సంస్థలు లేదా వ్యక్తిగత సలహా కోసం డాక్టర్ ని సంప్రదించడం మంచిది.