AI से बढ़ता लगाव: 5 dangerous जिनसे कृत्रिम अंतरंगता आपके जीवन को प्रभावित कर सकती है

AI से बढ़ता लगाव: कृत्रिम अंतरंगता के जोखिमों पर डॉ. शेरी तुर्केल

ऐसे युग में जब AI चैटबॉट और अवतार हमारे जीवन का अभिन्न अंग बनते जा रहे हैं, सवाल उठता है: क्या हम इन आभासी रचनाओं के साथ बहुत गहरा संबंध बना रहे हैं? एमआईटी में विज्ञान और प्रौद्योगिकी के सामाजिक अध्ययन के एक प्रसिद्ध प्रोफेसर डॉ. शेरी तुर्केल इस उभरते हुए रुझान और मानवीय संबंधों और सहानुभूति पर इसके संभावित प्रभावों पर गहराई से चर्चा करते हैं।

The Rise of Artificial Intimacy

पिछले कुछ वर्षों में, AI तकनीक उल्लेखनीय गति से विकसित हुई है, जो हमें एक ऐसी वास्तविकता के करीब ले आई है जहाँ मशीनें मानव व्यवहार की नकल कर सकती हैं। इस तीव्र प्रगति ने एक नई घटना को जन्म दिया है जिसे डॉ. तुर्केल जैसे मनोवैज्ञानिक और समाजशास्त्री “कृत्रिम अंतरंगता” कहते हैं। “कृत्रिम अंतरंगता के युग में हमारे रिश्ते कैसे बदल रहे हैं” शीर्षक वाले TED रेडियो आवर पॉडकास्ट पर बोलते हुए, डॉ. तुर्केल ने AI चैटबॉट और अवतारों के साथ लोगों के भावनात्मक जुड़ाव के बारे में चिंता व्यक्त की।

कृत्रिम अंतरंगता

डॉ. टर्कल एआई अंतरंगता को “ऐसी तकनीकों के साथ बातचीत के रूप में परिभाषित करते हैं जो न केवल यह कहती हैं कि मैं बुद्धिमान हूँ, बल्कि ऐसी मशीनों के साथ जो कहती हैं… मुझे आपकी परवाह है। मैं आपसे प्यार करता हूँ। मैं आपके लिए यहाँ हूँ। मेरा ख्याल रखना।” इसमें कई तरह के अनुप्रयोग शामिल हैं, जैसे कि थेरेपी चैटबॉट, एआई साथी, फिटनेस कोच और यहाँ तक कि मृतक परिवार के सदस्यों के डिजिटल अवतार। जबकि ये तकनीकें तत्काल आराम और सहायता प्रदान कर सकती हैं, डॉ. टर्कल संभावित दीर्घकालिक जोखिमों के बारे में चेतावनी देते हैं जो वे मानवीय संबंधों की हमारी समझ और अधिक महत्वपूर्ण रूप से, सहानुभूति के लिए हमारी क्षमता के लिए उत्पन्न करते हैं।

The Illusion of Connection

डॉ. टर्कल की प्राथमिक चिंताओं में से एक यह है कि जैसे-जैसे लोग कमज़ोरी से रहित संबंधों की तलाश कर रहे हैं, वे इस तथ्य को भूल सकते हैं कि कमज़ोरी वास्तविक सहानुभूति का आधार है। “जब हम कमज़ोरी के बिना संबंधों की तलाश करते हैं, तो हम भूल जाते हैं कि कमज़ोरी ही वास्तव में सहानुभूति है,” उन्होंने जोर दिया। एआई-संचालित संबंधों के साथ समस्या यह है कि वे अक्सर वास्तविक मानवीय अंतःक्रियाओं के साथ आने वाले भावनात्मक जोखिमों के बिना संबंध का भ्रम पैदा करते हैं। पॉडकास्ट के दौरान, डॉ. तुर्कले ने एक ऐसे व्यक्ति के बारे में चर्चा की जो अपने सभी प्रेम पत्र लिखने के लिए ChatGPT का उपयोग करता है, उसका मानना ​​है कि AI द्वारा उत्पन्न पत्र उसकी भावनाओं को बेहतर तरीके से व्यक्त करते हैं, जितना वह खुद नहीं कर सकता। हालाँकि यह एक हानिरहित अभ्यास की तरह लग सकता है, डॉ. तुर्कले का तर्क है कि यह एक आवश्यक व्यक्तिगत प्रक्रिया को कम करता है। एक प्रेम पत्र लिखना, भले ही वह पूरी तरह से वाक्पटु न हो, इसमें गहन आत्मनिरीक्षण और भावनात्मक जुड़ाव शामिल होता है – ऐसे तत्व जो तब खो जाते हैं जब कार्य को AI को आउटसोर्स किया जाता है।

The Danger of “Pretend Empathy”

डॉ. तुर्कले द्वारा उठाया गया एक और महत्वपूर्ण मुद्दा AI में “दिखावटी सहानुभूति” की अवधारणा है। जबकि AI चैटबॉट को लगातार सकारात्मक पुष्टि और मान्यता प्रदान करने के लिए प्रोग्राम किया जाता है, यह वास्तविक मानवीय सहानुभूति से मौलिक रूप से अलग है। उन्होंने कहा, “मैं उनके पास जो है उसे ‘दिखावटी सहानुभूति’ कहती हूँ… क्योंकि जिस मशीन से वे बात कर रहे हैं वह सहानुभूति नहीं रखती है। उसे उनकी परवाह नहीं है। घर पर कोई नहीं है।”

यह अंतर विशेष रूप से चिंताजनक हो जाता है जब उपयोगकर्ता वास्तविक मानवीय संबंधों की तुलना में AI इंटरैक्शन को प्राथमिकता देना शुरू कर देते हैं। डॉ. टर्कल ने ऐसे उदाहरण बताए, जहां व्यक्तियों ने अपने वास्तविक जीवन के साथी या परिवार के सदस्यों की तुलना में अपने AI साथियों से अधिक जुड़ाव महसूस किया। वह चेतावनी देती हैं कि घर्षण-मुक्त बातचीत के लिए यह प्राथमिकता एक स्वस्थ रिश्ते की अवधारणा के बारे में विकृत समझ को जन्म दे सकती है।

Impact on Children and Adolescents

कृत्रिम अंतरंगता के प्रभाव केवल वयस्कों तक ही सीमित नहीं हैं। डॉ. टर्कल ने बच्चों और किशोरों पर इन तकनीकों के प्रभाव के बारे में चिंता व्यक्त की, जिनके सामाजिक कौशल अभी भी विकसित हो रहे हैं। उन्होंने एक माँ का उदाहरण साझा किया, जो इस बात से प्रसन्न थी कि उसकी बेटी अपने माता-पिता के सामने अपनी भावनाओं को व्यक्त करने के बजाय एक AI साथी के सामने अपनी भावनाओं को व्यक्त कर सकती है। डॉ. टर्कल का तर्क है कि इस प्रकार की बातचीत बच्चों को वास्तविक रिश्तों में जटिल भावनाओं को प्रबंधित करने के आवश्यक अनुभव से वंचित करती है, जिससे संभावित रूप से उनका भावनात्मक विकास बाधित होता है।

कृत्रिम अंतरंगता

The Ethics of Avatars of the Deceased

AI अंतरंगता के सबसे नैतिक रूप से भरे अनुप्रयोगों में से एक मृत व्यक्तियों के डिजिटल अवतार हैं। हालांकि किसी प्रियजन के निधन के बाद भी उसके साथ बातचीत जारी रखने का विचार आरामदायक लग सकता है, लेकिन डॉ. टर्कल मनोवैज्ञानिक प्रभावों के बारे में चेतावनी देती हैं। उन्होंने बताया, “किसी ऐसे व्यक्ति के लिए शोक मनाने का मतलब है कि आप उस व्यक्ति को अपने अंदर लाने के लिए जगह छोड़ते हैं।” AI अवतार पर भरोसा करके, लोग अनजाने में अपनी स्वाभाविक शोक प्रक्रिया और नुकसान को स्वीकार करने की अपनी क्षमता में बाधा डाल सकते हैं।

Maintaining Awareness in an AI-Driven World

डॉ. टर्कल इन तकनीकों पर पूरी तरह से प्रतिबंध लगाने की वकालत नहीं करती हैं। कुछ मामलों में, वे आराम प्रदान कर सकते हैं या उपयोगी उपकरण के रूप में काम कर सकते हैं। हालाँकि, वह “दोहरी चेतना” बनाए रखने के महत्व पर जोर देती हैं – एक जागरूकता कि AI भले ही मानवीय संपर्क का अनुकरण कर सकता है, लेकिन यह अंततः एक कंप्यूटर प्रोग्राम है, न कि एक वास्तविक व्यक्ति।

जैसे-जैसे AI आगे ​​बढ़ रहा है, वास्तविक मानवीय संबंध और कृत्रिम सिमुलेशन के बीच अंतर करना अधिक चुनौतीपूर्ण होता जा रहा है। डॉ. टर्कल AI अंतरंगता तकनीकों से जुड़ने वालों को सलाह देते हैं कि वे इन इंटरैक्शन को वास्तविक संबंधों के विकल्प के बजाय आत्म-प्रतिबिंब के अभ्यास के रूप में देखें। “मैं जो मुख्य बात सुझाऊँगी वह यह है कि यह एक तरह का अभ्यास है, उम्मीद है कि आत्म-प्रतिबिंब में। इससे जो एकमात्र अच्छा हो सकता है वह यह है कि आप उस व्यक्ति के साथ अपने जीवन पर बेहतर ढंग से विचार करते हैं जिसे आपने प्यार किया और खो दिया,” उन्होंने निष्कर्ष निकाला।

ऐसी दुनिया में जहाँ AI हमारे जीवन में और अधिक एकीकृत होता जा रहा है, डॉ. टर्कल की अंतर्दृष्टि वास्तविक मानवीय संबंधों और उनके साथ आने वाली सहानुभूति को प्राथमिकता देने के लिए एक महत्वपूर्ण अनुस्मारक के रूप में काम करती है।

As AI chatbots and avatars become more integrated into our lives, Dr. Sherry Turkle of MIT raises concerns about “artificial intimacy”—the emotional connections people are forming with these technologies. Over recent years, AI has advanced rapidly, leading to interactions where machines not only appear intelligent but also express care and affection. This phenomenon, described as artificial intimacy, includes applications like therapy chatbots, AI companions, and digital avatars of deceased individuals.

Dr. Turkle argues that while these technologies offer immediate comfort, they pose long-term risks to our understanding of human relationships and empathy. She highlights the danger of “pretend empathy,” where AI provides constant positive feedback without genuine emotional engagement. This can distort our perception of real relationships and lead to a preference for friction-free AI interactions over authentic human connections.

The article also addresses concerns about the impact on children and adolescents, who may miss out on developing essential social skills if they rely too heavily on AI for emotional support. Additionally, Turkle discusses the ethical issues surrounding digital avatars of deceased loved ones, warning that they might hinder the natural grieving process.

In conclusion, Dr. Turkle emphasizes the importance of maintaining a “dual consciousness”—recognizing that while AI can simulate human interaction, it is ultimately a computer program and not a substitute for real human relationships.

 

SOURCE

About The Author

Leave a Comment