Race IAS - Crack UPSC with Excellence
Menu
asdas
Print Friendly and PDF

पुलिस ऑपरेशन में AI को शामिल करना

पुलिस ऑपरेशन में AI को शामिल करना

प्रसंग

जनवरी 2026 में, भारत की कानून लागू करने वाली एजेंसी टेक्नोलॉजी में बदलाव के एक अहम दौर में पहुँच गई। दिल्ली पुलिस ने अपना सेफ़ सिटी प्रोजेक्ट शुरू किया, जबकि महाराष्ट्र ने पूरे राज्य में महाक्राइम OS AI शुरू किया । ये सभी कोशिशें मिलकर पारंपरिक पुलिसिंग से एल्गोरिदम पर चलने वाले शासन में बदलाव दिखाती हैं , जिससे एक बुनियादी दुविधा पैदा होती है: नागरिकों की आज़ादी को कम किए बिना पब्लिक सुरक्षा कैसे बढ़ाई जाए

 

विकास के बारे में

1. दिल्ली: सुरक्षित शहर परियोजना

दिल्ली के सेफ सिटी प्रोजेक्ट में लगभग 10,000 AI-इनेबल्ड कैमरे लगाए गए हैं, जिनमें ये शामिल हैं:

  • चेहरे की पहचान प्रणालियाँ
     
  • चीखें, इमरजेंसी इशारे और भीड़ की असामान्य संख्या की पहचान करने के लिए
    डिस्ट्रेस डिटेक्शन टूल

यह ऑटोमेटेड सर्विलांस की ओर एक कदम है, जहाँ रियल-टाइम मॉनिटरिंग लगातार और बचाव वाली हो जाती है।

2. महाराष्ट्र: महाक्राइम ओएस एआई

महाराष्ट्र के महाक्राइम OS AI को पूरे राज्य में इंटेलिजेंस और इन्वेस्टिगेशन प्लेटफॉर्म के तौर पर डिज़ाइन किया गया है, जिसका फोकस इन चीज़ों पर है:

  • पूर्वानुमानित पुलिसिंग (जोखिम पूर्वानुमान और हॉटस्पॉट मैपिंग)
     
  • साइबर अपराध जांच सहायता
     

प्राइवेट सहयोग से डेवलप किया गया, यह केस फाइलों को एनालाइज़ करने, पैटर्न का पता लगाने और यहां तक कि इन्वेस्टिगेशन प्लान बनाने के लिए AI को-पायलट का इस्तेमाल करता है।

3. निगरानी ड्रोन

AI-पावर्ड ड्रोन का इस्तेमाल तेज़ी से इन कामों के लिए किया जा रहा है:

  • भीड़ नियंत्रण
     
  • यातायात निगरानी
     
  • सार्वजनिक व्यवस्था प्रबंधन
     

वे “उच्च ऊंचाई पर निगरानी का लाभ” पैदा करते हैं, जिससे अवलोकन क्षमता को बढ़ाते हुए जमीनी कर्मियों पर निर्भरता कम होती है।

4. डेटा बैकएंड: CCTNS-आधारित ट्रेनिंग

AI पुलिसिंग के पीछे एक बड़ा कारण लंबे समय के क्रिमिनल डेटासेट की उपलब्धता है। मॉडर्न AI सिस्टम को क्रिमिनल ट्रैकिंग नेटवर्क और सिस्टम (CCTNS) के दशकों के रिकॉर्ड का इस्तेमाल करके ट्रेन किया जाता है , जिससे पैटर्न की जल्दी पहचान और कोल्ड-केस लिंकेज हो पाते हैं।

 

नैतिक और प्रशासनिक चिंताएँ

चिंता

निहितार्थ

सत्ता का केंद्रीकरण

पुलिसिंग लोकल बीट ऑफिसर से हटकर दूर के डेटा सेंटर में शिफ्ट हो रही है, जिससे लोगों तक पहुंच और जवाबदेही कम हो रही है।

शहरों को कैद करना

बहुत ज़्यादा निगरानी से शक का एक पक्का माहौल बन जाता है, जहाँ रोज़मर्रा के व्यवहार पर गड़बड़ियों के लिए नज़र रखी जाती है।

ऐतिहासिक पूर्वाग्रह

AI पुराने पुलिसिंग पैटर्न को अपनाता है, जिससे जाति, समुदाय या इलाके के आधार पर भेदभाव के इंस्टीट्यूशनलाइज़ेशन का खतरा रहता है।

अधिकारों का हनन

असेंबली और गैदरिंग की मॉनिटरिंग से असहमति और एसोसिएशन की आज़ादी पर बुरा असर पड़ सकता है।

 

2026 के परिदृश्य में प्रमुख चुनौतियाँ

1. “ब्लैक बॉक्ससमस्या

लिखे हुए पुलिस मैनुअल के उलट, AI सिस्टम शायद ही कभी कोई ट्रांसपेरेंट रूलबुक देते हैं जिसमें बताया गया हो कि किसी व्यक्ति को क्यों फ़्लैग किया गया । इससे नागरिकों के लिए यह करना बहुत मुश्किल हो जाता है:

  • AI-सहायता प्राप्त निरोध को चुनौती देना,
     
  • जवाबदेही की मांग करें, या
     
  • कोर्ट में एल्गोरिदम से जुड़े फैसलों को चुनौती दें।
     

2. सटीकता बनाम नुकसान

AI टूल्स उतने ही भरोसेमंद होते हैं, जितना उनका डेटा और कंडीशन। इनसे होने वाली गलतियाँ:

  • खराब गुणवत्ता वाली सीसीटीवी फुटेज,
     
  • पक्षपाती प्रशिक्षण डेटासेट, या
     
  • गलत चेहरे की पहचान से
    गलत तरीके से हिरासत में लिया जा सकता है और ऐसा नुकसान हो सकता है जिसे ठीक नहीं किया जा सकता, जिसमें हिरासत में गंभीर नतीजे भी शामिल हैं ।
     

3. कानूनी शून्यता और कमज़ोर सुरक्षा उपाय

हालांकि डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट (DPDPA), 2023 मौजूद है, लेकिन “सिक्योरिटी” जैसे आधार पर राज्य को दी गई बड़ी छूट, सर्विलांस के गलत इस्तेमाल और बिना जांच वाली प्रोफाइलिंग से सुरक्षा में बड़ी कमी पैदा करती है।

4. अपराध की धारणा

प्रेडिक्टिव पुलिसिंग न्याय के लॉजिक को बदल देती है। सबूत सामने आने के बाद अपराध की जांच करने के बजाय, सिस्टम किसी भी गलत काम के साबित होने से पहले ही व्यवहार को संदिग्ध मानकर स्क्रीन करता है, जिससे दोषी साबित होने तक निर्दोष होने का संवैधानिक सिद्धांत कमजोर होता है ।

 

आगे बढ़ने का रास्ता

1. AI पुलिसिंग के लिए कानूनी ढांचा

भारत को एक डेडिकेटेड लीगल फ्रेमवर्क की ज़रूरत है जो यह पक्का करे:

  • तैनाती से पहले
    अनिवार्य सुरक्षा परीक्षण ,
  • पारदर्शिता मानक, और
     
  • जहां मौलिक अधिकार प्रभावित होते हैं, वहां निर्णय लेने के तर्क का खुलासा।
     

2. ह्यूमन-इन--लूप जवाबदेही

सहायक बने रहना चाहिए , अधिकारपूर्ण नहीं।

  • गिरफ्तारी, हिरासत और ज़बरदस्ती के फ़ैसलों के लिए हमेशा इंसानी मंज़ूरी ज़रूरी होती है
     
  • ज़िम्मेदार अधिकारी को आखिरी कार्रवाई के लिए
    कानूनी तौर पर जवाबदेह रहना चाहिए

3. स्वतंत्र एल्गोरिथमिक ऑडिट

पुलिसिंग में इस्तेमाल होने वाले AI टूल्स का बार-बार ऑडिट होना चाहिए ताकि इन चीज़ों का पता लगाया जा सके और उन्हें खत्म किया जा सके:

  • जातिगत पूर्वाग्रह
     
  • धार्मिक प्रोफाइलिंग
     
  • लिंग भेद
     
  • स्थानीयता-आधारित रूढ़िवादिता
     

सिर्फ़ इंटरनल एजेंसियों द्वारा ही नहीं, बल्कि इंडिपेंडेंट थर्ड-पार्टी संस्थाओं द्वारा भी किए जाने चाहिए ।

4. मौजूदा कानूनी प्रावधानों में सुधार

क्रिमिनल प्रोसीजर (आइडेंटिफिकेशन) एक्ट, 2022 जैसे कानूनों के लिए ज़्यादा मज़बूत सुरक्षा उपायों की ज़रूरत है ताकि:

  • गैर-दोषी बायोमेट्रिक डेटा अंधाधुंध तरीके से इकट्ठा नहीं किया जाता है, और
     
  • निगरानी आवश्यक, सीमित और न्यायोचित बनी हुई है
     

 

निष्कर्ष

टेक्नोलॉजी पुलिसिंग की क्षमता को मज़बूत कर सकती है, लेकिन यह संवैधानिक अनुशासन की जगह नहीं ले सकती। अगर इसे रोका नहीं गया, तो AI से चलने वाली पुलिसिंग बड़े पैमाने पर मॉनिटरिंग, एकतरफ़ा प्रोफ़ाइलिंग और बिना दिखे फ़ैसले लेने के ज़रिए शासन को डिजिटल तानाशाही में बदलने का खतरा है। एक असली सुरक्षित समाज पूरी निगरानी से नहीं, बल्कि भरोसे, पारदर्शिता, अनुपात और कानून के शासन से सुरक्षित होता है , जिससे यह पक्का होता है कि इनोवेशन संवैधानिक मूल्यों और लोकतांत्रिक जवाबदेही पर टिका रहे ।

Chat with us