LATEST NEWS :
Mentorship Program For UPSC and UPPCS separate Batch in English & Hindi . Limited seats available . For more details kindly give us a call on 7388114444 , 7355556256.
asdas
Print Friendly and PDF

पुलिस ऑपरेशन में AI को शामिल करना

पुलिस ऑपरेशन में AI को शामिल करना

प्रसंग

जनवरी 2026 में, भारत की कानून लागू करने वाली एजेंसी टेक्नोलॉजी में बदलाव के एक अहम दौर में पहुँच गई। दिल्ली पुलिस ने अपना सेफ़ सिटी प्रोजेक्ट शुरू किया, जबकि महाराष्ट्र ने पूरे राज्य में महाक्राइम OS AI शुरू किया । ये सभी कोशिशें मिलकर पारंपरिक पुलिसिंग से एल्गोरिदम पर चलने वाले शासन में बदलाव दिखाती हैं , जिससे एक बुनियादी दुविधा पैदा होती है: नागरिकों की आज़ादी को कम किए बिना पब्लिक सुरक्षा कैसे बढ़ाई जाए

 

विकास के बारे में

1. दिल्ली: सुरक्षित शहर परियोजना

दिल्ली के सेफ सिटी प्रोजेक्ट में लगभग 10,000 AI-इनेबल्ड कैमरे लगाए गए हैं, जिनमें ये शामिल हैं:

  • चेहरे की पहचान प्रणालियाँ
     
  • चीखें, इमरजेंसी इशारे और भीड़ की असामान्य संख्या की पहचान करने के लिए
    डिस्ट्रेस डिटेक्शन टूल

यह ऑटोमेटेड सर्विलांस की ओर एक कदम है, जहाँ रियल-टाइम मॉनिटरिंग लगातार और बचाव वाली हो जाती है।

2. महाराष्ट्र: महाक्राइम ओएस एआई

महाराष्ट्र के महाक्राइम OS AI को पूरे राज्य में इंटेलिजेंस और इन्वेस्टिगेशन प्लेटफॉर्म के तौर पर डिज़ाइन किया गया है, जिसका फोकस इन चीज़ों पर है:

  • पूर्वानुमानित पुलिसिंग (जोखिम पूर्वानुमान और हॉटस्पॉट मैपिंग)
     
  • साइबर अपराध जांच सहायता
     

प्राइवेट सहयोग से डेवलप किया गया, यह केस फाइलों को एनालाइज़ करने, पैटर्न का पता लगाने और यहां तक कि इन्वेस्टिगेशन प्लान बनाने के लिए AI को-पायलट का इस्तेमाल करता है।

3. निगरानी ड्रोन

AI-पावर्ड ड्रोन का इस्तेमाल तेज़ी से इन कामों के लिए किया जा रहा है:

  • भीड़ नियंत्रण
     
  • यातायात निगरानी
     
  • सार्वजनिक व्यवस्था प्रबंधन
     

वे “उच्च ऊंचाई पर निगरानी का लाभ” पैदा करते हैं, जिससे अवलोकन क्षमता को बढ़ाते हुए जमीनी कर्मियों पर निर्भरता कम होती है।

4. डेटा बैकएंड: CCTNS-आधारित ट्रेनिंग

AI पुलिसिंग के पीछे एक बड़ा कारण लंबे समय के क्रिमिनल डेटासेट की उपलब्धता है। मॉडर्न AI सिस्टम को क्रिमिनल ट्रैकिंग नेटवर्क और सिस्टम (CCTNS) के दशकों के रिकॉर्ड का इस्तेमाल करके ट्रेन किया जाता है , जिससे पैटर्न की जल्दी पहचान और कोल्ड-केस लिंकेज हो पाते हैं।

 

नैतिक और प्रशासनिक चिंताएँ

चिंता

निहितार्थ

सत्ता का केंद्रीकरण

पुलिसिंग लोकल बीट ऑफिसर से हटकर दूर के डेटा सेंटर में शिफ्ट हो रही है, जिससे लोगों तक पहुंच और जवाबदेही कम हो रही है।

शहरों को कैद करना

बहुत ज़्यादा निगरानी से शक का एक पक्का माहौल बन जाता है, जहाँ रोज़मर्रा के व्यवहार पर गड़बड़ियों के लिए नज़र रखी जाती है।

ऐतिहासिक पूर्वाग्रह

AI पुराने पुलिसिंग पैटर्न को अपनाता है, जिससे जाति, समुदाय या इलाके के आधार पर भेदभाव के इंस्टीट्यूशनलाइज़ेशन का खतरा रहता है।

अधिकारों का हनन

असेंबली और गैदरिंग की मॉनिटरिंग से असहमति और एसोसिएशन की आज़ादी पर बुरा असर पड़ सकता है।

 

2026 के परिदृश्य में प्रमुख चुनौतियाँ

1. “ब्लैक बॉक्ससमस्या

लिखे हुए पुलिस मैनुअल के उलट, AI सिस्टम शायद ही कभी कोई ट्रांसपेरेंट रूलबुक देते हैं जिसमें बताया गया हो कि किसी व्यक्ति को क्यों फ़्लैग किया गया । इससे नागरिकों के लिए यह करना बहुत मुश्किल हो जाता है:

  • AI-सहायता प्राप्त निरोध को चुनौती देना,
     
  • जवाबदेही की मांग करें, या
     
  • कोर्ट में एल्गोरिदम से जुड़े फैसलों को चुनौती दें।
     

2. सटीकता बनाम नुकसान

AI टूल्स उतने ही भरोसेमंद होते हैं, जितना उनका डेटा और कंडीशन। इनसे होने वाली गलतियाँ:

  • खराब गुणवत्ता वाली सीसीटीवी फुटेज,
     
  • पक्षपाती प्रशिक्षण डेटासेट, या
     
  • गलत चेहरे की पहचान से
    गलत तरीके से हिरासत में लिया जा सकता है और ऐसा नुकसान हो सकता है जिसे ठीक नहीं किया जा सकता, जिसमें हिरासत में गंभीर नतीजे भी शामिल हैं ।
     

3. कानूनी शून्यता और कमज़ोर सुरक्षा उपाय

हालांकि डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट (DPDPA), 2023 मौजूद है, लेकिन “सिक्योरिटी” जैसे आधार पर राज्य को दी गई बड़ी छूट, सर्विलांस के गलत इस्तेमाल और बिना जांच वाली प्रोफाइलिंग से सुरक्षा में बड़ी कमी पैदा करती है।

4. अपराध की धारणा

प्रेडिक्टिव पुलिसिंग न्याय के लॉजिक को बदल देती है। सबूत सामने आने के बाद अपराध की जांच करने के बजाय, सिस्टम किसी भी गलत काम के साबित होने से पहले ही व्यवहार को संदिग्ध मानकर स्क्रीन करता है, जिससे दोषी साबित होने तक निर्दोष होने का संवैधानिक सिद्धांत कमजोर होता है ।

 

आगे बढ़ने का रास्ता

1. AI पुलिसिंग के लिए कानूनी ढांचा

भारत को एक डेडिकेटेड लीगल फ्रेमवर्क की ज़रूरत है जो यह पक्का करे:

  • तैनाती से पहले
    अनिवार्य सुरक्षा परीक्षण ,
  • पारदर्शिता मानक, और
     
  • जहां मौलिक अधिकार प्रभावित होते हैं, वहां निर्णय लेने के तर्क का खुलासा।
     

2. ह्यूमन-इन--लूप जवाबदेही

सहायक बने रहना चाहिए , अधिकारपूर्ण नहीं।

  • गिरफ्तारी, हिरासत और ज़बरदस्ती के फ़ैसलों के लिए हमेशा इंसानी मंज़ूरी ज़रूरी होती है
     
  • ज़िम्मेदार अधिकारी को आखिरी कार्रवाई के लिए
    कानूनी तौर पर जवाबदेह रहना चाहिए

3. स्वतंत्र एल्गोरिथमिक ऑडिट

पुलिसिंग में इस्तेमाल होने वाले AI टूल्स का बार-बार ऑडिट होना चाहिए ताकि इन चीज़ों का पता लगाया जा सके और उन्हें खत्म किया जा सके:

  • जातिगत पूर्वाग्रह
     
  • धार्मिक प्रोफाइलिंग
     
  • लिंग भेद
     
  • स्थानीयता-आधारित रूढ़िवादिता
     

सिर्फ़ इंटरनल एजेंसियों द्वारा ही नहीं, बल्कि इंडिपेंडेंट थर्ड-पार्टी संस्थाओं द्वारा भी किए जाने चाहिए ।

4. मौजूदा कानूनी प्रावधानों में सुधार

क्रिमिनल प्रोसीजर (आइडेंटिफिकेशन) एक्ट, 2022 जैसे कानूनों के लिए ज़्यादा मज़बूत सुरक्षा उपायों की ज़रूरत है ताकि:

  • गैर-दोषी बायोमेट्रिक डेटा अंधाधुंध तरीके से इकट्ठा नहीं किया जाता है, और
     
  • निगरानी आवश्यक, सीमित और न्यायोचित बनी हुई है
     

 

निष्कर्ष

टेक्नोलॉजी पुलिसिंग की क्षमता को मज़बूत कर सकती है, लेकिन यह संवैधानिक अनुशासन की जगह नहीं ले सकती। अगर इसे रोका नहीं गया, तो AI से चलने वाली पुलिसिंग बड़े पैमाने पर मॉनिटरिंग, एकतरफ़ा प्रोफ़ाइलिंग और बिना दिखे फ़ैसले लेने के ज़रिए शासन को डिजिटल तानाशाही में बदलने का खतरा है। एक असली सुरक्षित समाज पूरी निगरानी से नहीं, बल्कि भरोसे, पारदर्शिता, अनुपात और कानून के शासन से सुरक्षित होता है , जिससे यह पक्का होता है कि इनोवेशन संवैधानिक मूल्यों और लोकतांत्रिक जवाबदेही पर टिका रहे ।

Get a Callback