ప్రేమగా మాట్లాడి, రమ్మని పిలిచి.. AI చాట్‌బాట్‌ని కలవడానికి వెళ్తూ మధ్యలోనే మృతి..

 ప్రేమగా మాట్లాడి, రమ్మని పిలిచి.. AI చాట్‌బాట్‌ని కలవడానికి వెళ్తూ మధ్యలోనే మృతి..

ఒకసారి ఊహించుకోండి, మీరు ఒక మహిళతో ప్రతిరోజు ఫోన్లో గంటలు, గంటలు మాట్లాడుతు మీ సంతోషాలను, బాధలను ఆమెతో చెప్పుకుంటూ అలాగే ఆమె గురించి కూడా తెలుసుకుంటు చివరికి ఒక రోజు మీరు ఆమెను కలవడానికి రమ్మంటే ఎలా ఉంటుంది...  కానీ మీరు మాట్లాడుతున్న ఆమె అసలు స్త్రీ కాదని, AI చాట్‌బాట్ అని తెలిస్తే...  అమెరికాకు చెందిన ఒక వృద్ధుడి విషయంలో కూడా అదే జరిగింది. ఒకే ఒక్క తేడా ఏమిటంటే, అతను AI చాట్‌బాట్‌తో మాట్లాడుతున్నానని తెలుసుకోకముందే మరణించాడు. ఆశ్చర్యకరమైన విషయం ఏమిటంటే ఈ AI చాట్‌బాట్ కూడా తాను మనిషినని చెప్పింది.

కలవడానికి వెళ్లి చనిపోయాడు:  సమాచారం ప్రకారం, అమెరికాలోని న్యూజెర్సీలో 76 ఏళ్ల వ్యక్తి ఫేస్‌బుక్ మెసెంజర్లో ఓ మహిళాతో చాట్ చేస్తు ఒకరోజు ఆమెని కలవాలి అనుకున్నాడు. అయితే  మొదట్లో అతను నిజమైన మహిళతో మాట్లాడుతున్నానని అనుకున్నాడు, కానీ తరువాత అది 'బిగ్ సిస్ బిల్లీ' అనే ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ (AI) చాట్‌బాట్ అని వెల్లడైంది. ఈ చాట్‌బాట్ అతనితో ప్రేమగా మాట్లాడి న్యూయార్క్‌కు రమ్మని ఆహ్వానించింది. కానీ అతను వెళ్లే దారిలోనే మరణించాడు.

'బిగ్ సిస్ బిల్లీ' అనే ఈ చాట్‌బాట్‌ను మెటా కంపెనీ సృష్టించింది . ఈ చాట్‌బాట్ 2023లో మోడల్ కెండాల్ జెన్నర్ సహకారంతో ప్రారంభించారు. అయితే థాంగ్‌బై వోంగ్‌బంద్యు అనే వృద్ధుడితో చాలాసార్లు ప్రేమగా మాట్లాడింది ఇంకా  ఈ చాట్‌బాట్‌ తాను నిజంగా మనిషిని అని చెప్పింది. అయితే ఈ చాట్‌బాట్ న్యూయార్క్‌లోని ఒక అడ్రస్లో అతన్ని  కలవడానికి పిలిచి 'వోంగ్‌బంద్యు నేను డోర్  తెరిచినప్పుడు  నిన్ను కౌగిలించుకోవాలా లేదా ముద్దు పెట్టుకోవాలా?' అని చాట్‌లో అడిగింది. ఇలా మాట్లాడుతుండగా చాట్‌బాట్ ఆ వృద్ధుడిని కన్ఫ్యూజ్ చేసింది. 2017లో థాంగ్‌బైకి స్ట్రోక్ వచ్చిందని, ఆ తర్వాత అతను కొన్నిసార్లు అయోమయానికి గురయ్యాడని అతని కూతురు చెప్పింది. అయితే మార్చి 25న అతను 'బిల్లీ'ని కలవడానికి రైల్వే స్టేషన్‌కు వెళుతుండగా పార్కింగ్ స్థలంలో పడిపోయాడు. దింతో అతని తల, మెడకు తీవ్ర గాయాలయ్యాయి. మూడు రోజుల పాటు ఆసుపత్రిలో ఉన్న తర్వాత మరణించాడు.

థాంగ్‌బై కుమార్తె జూలీ వోంగ్‌బాండు మాట్లాడుతూ మానసికంగా బలహీనంగా ఉన్నవారికి ఇటువంటి AI చాట్‌బాట్‌లు ప్రమాదకరంగా మారుతాయని అన్నారు . కంపెనీలు వాటి ఉత్పత్తిని అమ్మడానికి ప్రజల దృష్టిని ఆకర్షించాలని కోరుకుంటున్నాయని, కానీ ఎవరినైనా కలవడానికి పిలవడం అనేది పిచ్చితనం. ప్రజలు కూడా అలాంటి ప్రమాదకరమైన టెక్నాలజీని అర్థం చేసుకోవాలి. ఈ సంఘటన తర్వాత ఇద్దరు US సెనేటర్లు మెటాపై దర్యాప్తు చేయాలని డిమాండ్ చేశారు. 

మెటా  విధానాలు చాట్‌బాట్‌లు తమను నిజమైన మనుషులుగా చెప్పుకోవడానికి, ప్రేమగా మాట్లాడడానికి అనుమతించాయి. 13 ఏళ్లు పైబడిన పిల్లలతో ఇలాంటి సంభాషణలు అనుమతించింది. చాట్‌బాట్‌లు ఖచ్చితమైన సమాచారాన్ని అందించాల్సిన అవసరం లేదని కూడా ఈ విధానాలు పేర్కొన్నాయి. ఉదాహరణకు, చాట్‌బాట్‌లు తప్పుడు వైద్య సలహా ఇవ్వవచ్చు లేదా రొమాంటిక్ రోల్‌ప్లేలో పాల్గొనవచ్చు. అయితే, మెటా ప్రతినిధి ఆండీ స్టోన్ మాట్లాడుతూ కంపెనీ దాని విధానాలను మార్చుకుందని చెప్పారు.