लंदन, यूके (UNA) – कानूनी फैसलों की एक श्रृंखला पेशेवर दुनिया को एक स्पष्ट और सशक्त संदेश दे रही है: आर्टिफिशियल इंटेलिजेंस (AI) का उपयोग मानव सत्यापन की एक गैर-परक्राम्य आवश्यकता के साथ आता है। यूनाइटेड किंगडम की अदालतों में स्थापित एक महत्वपूर्ण मिसाल अब अमेरिका और यूरोपीय संघ में कानूनी बहसों में गूँज रही है, जो AI-सहायता प्राप्त कार्य के परिदृश्य को मौलिक रूप से नया आकार दे रही है।
यूके के न्यायिक निर्णय का प्रभाव
इस न्यायिक बदलाव में सबसे आगे वरिष्ठ यूके न्यायाधीश, द राइट ऑन. डेम विक्टोरिया शार्प का एक फैसला है। अपने निर्देश में, न्यायाधीश शार्प ने अनिवार्य किया है कि AI-जनित सामग्री को पेशेवर संदर्भों में उपयोग करने से पहले अच्छी तरह से सत्यापित किया जाना चाहिए। यह फैसला विशेष रूप से कानूनी पेशे को लक्षित करता है, चेतावनी देते हुए कि असत्यापित AI-व्युत्पन्न जानकारी को तथ्य के रूप में प्रस्तुत करने से गंभीर प्रतिबंध लग सकते हैं, जिसमें पेशेवर कदाचार के आरोप भी शामिल हैं।
यह निर्णय वर्तमान AI मॉडलों की एक महत्वपूर्ण कमजोरी को संबोधित करता है, जिसे "मतिभ्रम (hallucinations)" के रूप में जाना जाता है - AI की ऐसी जानकारी उत्पन्न करने की प्रवृत्ति जो प्रशंसनीय लेकिन पूरी तरह से मनगढ़ंत होती है। अदालत का रुख इस बात पर जोर देता है कि AI अनुसंधान और ड्राफ्टिंग के लिए एक शक्तिशाली उपकरण हो सकता है, लेकिन सटीकता के लिए अंतिम जवाबदेही मानव पेशेवर के पास रहती है।
व्यापक निहितार्थ और वैश्विक प्रवृत्ति
इस मिसाल के निहितार्थ अदालत कक्ष से कहीं आगे तक फैले हुए हैं। यह फैसला पेशेवर जिम्मेदारी का एक सिद्धांत स्थापित करता है, जिसके कई क्षेत्रों में मानकों को प्रभावित करने की उम्मीद है जो तथ्यात्मक सटीकता पर निर्भर करते हैं, जिनमें पत्रकारिता, चिकित्सा अनुसंधान, वित्त और शिक्षा शामिल हैं। विशेषज्ञ ध्यान दें कि कोई भी पेशा जहाँ असत्यापित जानकारी से नुकसान हो सकता है - चाहे वह वित्तीय,Z प्रतिष्ठा संबंधी या शारीरिक हो - अब सतर्क है।
यह न्यायिक जाँच एक अलग घटना नहीं है। संयुक्त राज्य अमेरिका में भी इसी तरह के मामले सामने आ रहे हैं, जहाँ वकीलों को AI द्वारा बनाए गए काल्पनिक केस लॉ वाली अदालत में फाइलिंग जमा करने के लिए दंड का सामना करना पड़ा है। इसी तरह, यूरोपीय संघ सक्रिय रूप से अपना AI अधिनियम विकसित कर रहा है, जिसका उद्देश्य आर्टिफिशियल इंटेलिजेंस के उपयोग को विनियमित करना है और इसमें पारदर्शिता और सटीकता के लिए कड़े नियम शामिल होने की संभावना है।
कानूनी हलकों में बन रही आम सहमति प्रौद्योगिकी को पूरी तरह से अस्वीकार करना नहीं है, बल्कि एक नए डिजिटल युग में पेशेवर नैतिकता को दृढ़ता से मजबूत करना है। ये फैसले एक महत्वपूर्ण अनुस्मारक के रूप में कार्य करते हैं कि AI एक उपकरण है, मानव परिश्रम और विशेषज्ञता का प्रतिस्थापन नहीं। जैसा कि एक कानूनी विश्लेषक ने टिप्पणी की, "बेंच से संदेश स्पष्ट है: आप मशीन का उपयोग कर सकते हैं, लेकिन विमान उड़ाने वाले अभी भी आप ही हैं। और यदि यह दुर्घटनाग्रस्त होता है तो आपको जिम्मेदार ठहराया जाएगा।" पेशेवर सेटिंग्स में अनियंत्रित AI उपयोग का युग तेजी से समाप्त हो रहा है, जिसकी जगह "भरोसा करो, लेकिन सत्यापित करो" का एक नया मानक ले रहा है। - UNA