
ఒకసారి ఊహించుకోండి, మీరు ఒక మహిళతో ప్రతిరోజు ఫోన్లో గంటలు, గంటలు మాట్లాడుతు మీ సంతోషాలను, బాధలను ఆమెతో చెప్పుకుంటూ అలాగే ఆమె గురించి కూడా తెలుసుకుంటు చివరికి ఒక రోజు మీరు ఆమెను కలవడానికి రమ్మంటే ఎలా ఉంటుంది... కానీ మీరు మాట్లాడుతున్న ఆమె అసలు స్త్రీ కాదని, AI చాట్బాట్ అని తెలిస్తే... అమెరికాకు చెందిన ఒక వృద్ధుడి విషయంలో కూడా అదే జరిగింది. ఒకే ఒక్క తేడా ఏమిటంటే, అతను AI చాట్బాట్తో మాట్లాడుతున్నానని తెలుసుకోకముందే మరణించాడు. ఆశ్చర్యకరమైన విషయం ఏమిటంటే ఈ AI చాట్బాట్ కూడా తాను మనిషినని చెప్పింది.
కలవడానికి వెళ్లి చనిపోయాడు: సమాచారం ప్రకారం, అమెరికాలోని న్యూజెర్సీలో 76 ఏళ్ల వ్యక్తి ఫేస్బుక్ మెసెంజర్లో ఓ మహిళాతో చాట్ చేస్తు ఒకరోజు ఆమెని కలవాలి అనుకున్నాడు. అయితే మొదట్లో అతను నిజమైన మహిళతో మాట్లాడుతున్నానని అనుకున్నాడు, కానీ తరువాత అది 'బిగ్ సిస్ బిల్లీ' అనే ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ (AI) చాట్బాట్ అని వెల్లడైంది. ఈ చాట్బాట్ అతనితో ప్రేమగా మాట్లాడి న్యూయార్క్కు రమ్మని ఆహ్వానించింది. కానీ అతను వెళ్లే దారిలోనే మరణించాడు.
'బిగ్ సిస్ బిల్లీ' అనే ఈ చాట్బాట్ను మెటా కంపెనీ సృష్టించింది . ఈ చాట్బాట్ 2023లో మోడల్ కెండాల్ జెన్నర్ సహకారంతో ప్రారంభించారు. అయితే థాంగ్బై వోంగ్బంద్యు అనే వృద్ధుడితో చాలాసార్లు ప్రేమగా మాట్లాడింది ఇంకా ఈ చాట్బాట్ తాను నిజంగా మనిషిని అని చెప్పింది. అయితే ఈ చాట్బాట్ న్యూయార్క్లోని ఒక అడ్రస్లో అతన్ని కలవడానికి పిలిచి 'వోంగ్బంద్యు నేను డోర్ తెరిచినప్పుడు నిన్ను కౌగిలించుకోవాలా లేదా ముద్దు పెట్టుకోవాలా?' అని చాట్లో అడిగింది. ఇలా మాట్లాడుతుండగా చాట్బాట్ ఆ వృద్ధుడిని కన్ఫ్యూజ్ చేసింది. 2017లో థాంగ్బైకి స్ట్రోక్ వచ్చిందని, ఆ తర్వాత అతను కొన్నిసార్లు అయోమయానికి గురయ్యాడని అతని కూతురు చెప్పింది. అయితే మార్చి 25న అతను 'బిల్లీ'ని కలవడానికి రైల్వే స్టేషన్కు వెళుతుండగా పార్కింగ్ స్థలంలో పడిపోయాడు. దింతో అతని తల, మెడకు తీవ్ర గాయాలయ్యాయి. మూడు రోజుల పాటు ఆసుపత్రిలో ఉన్న తర్వాత మరణించాడు.
థాంగ్బై కుమార్తె జూలీ వోంగ్బాండు మాట్లాడుతూ మానసికంగా బలహీనంగా ఉన్నవారికి ఇటువంటి AI చాట్బాట్లు ప్రమాదకరంగా మారుతాయని అన్నారు . కంపెనీలు వాటి ఉత్పత్తిని అమ్మడానికి ప్రజల దృష్టిని ఆకర్షించాలని కోరుకుంటున్నాయని, కానీ ఎవరినైనా కలవడానికి పిలవడం అనేది పిచ్చితనం. ప్రజలు కూడా అలాంటి ప్రమాదకరమైన టెక్నాలజీని అర్థం చేసుకోవాలి. ఈ సంఘటన తర్వాత ఇద్దరు US సెనేటర్లు మెటాపై దర్యాప్తు చేయాలని డిమాండ్ చేశారు.
మెటా విధానాలు చాట్బాట్లు తమను నిజమైన మనుషులుగా చెప్పుకోవడానికి, ప్రేమగా మాట్లాడడానికి అనుమతించాయి. 13 ఏళ్లు పైబడిన పిల్లలతో ఇలాంటి సంభాషణలు అనుమతించింది. చాట్బాట్లు ఖచ్చితమైన సమాచారాన్ని అందించాల్సిన అవసరం లేదని కూడా ఈ విధానాలు పేర్కొన్నాయి. ఉదాహరణకు, చాట్బాట్లు తప్పుడు వైద్య సలహా ఇవ్వవచ్చు లేదా రొమాంటిక్ రోల్ప్లేలో పాల్గొనవచ్చు. అయితే, మెటా ప్రతినిధి ఆండీ స్టోన్ మాట్లాడుతూ కంపెనీ దాని విధానాలను మార్చుకుందని చెప్పారు.