जनवरी 2026 में, भारत की कानून लागू करने वाली एजेंसी टेक्नोलॉजी में बदलाव के एक अहम दौर में पहुँच गई। दिल्ली पुलिस ने अपना सेफ़ सिटी प्रोजेक्ट शुरू किया, जबकि महाराष्ट्र ने पूरे राज्य में महाक्राइम OS AI शुरू किया । ये सभी कोशिशें मिलकर पारंपरिक पुलिसिंग से एल्गोरिदम पर चलने वाले शासन में बदलाव दिखाती हैं , जिससे एक बुनियादी दुविधा पैदा होती है: नागरिकों की आज़ादी को कम किए बिना पब्लिक सुरक्षा कैसे बढ़ाई जाए ।
दिल्ली के सेफ सिटी प्रोजेक्ट में लगभग 10,000 AI-इनेबल्ड कैमरे लगाए गए हैं, जिनमें ये शामिल हैं:
यह ऑटोमेटेड सर्विलांस की ओर एक कदम है, जहाँ रियल-टाइम मॉनिटरिंग लगातार और बचाव वाली हो जाती है।
महाराष्ट्र के महाक्राइम OS AI को पूरे राज्य में इंटेलिजेंस और इन्वेस्टिगेशन प्लेटफॉर्म के तौर पर डिज़ाइन किया गया है, जिसका फोकस इन चीज़ों पर है:
प्राइवेट सहयोग से डेवलप किया गया, यह केस फाइलों को एनालाइज़ करने, पैटर्न का पता लगाने और यहां तक कि इन्वेस्टिगेशन प्लान बनाने के लिए AI को-पायलट का इस्तेमाल करता है।
AI-पावर्ड ड्रोन का इस्तेमाल तेज़ी से इन कामों के लिए किया जा रहा है:
वे “उच्च ऊंचाई पर निगरानी का लाभ” पैदा करते हैं, जिससे अवलोकन क्षमता को बढ़ाते हुए जमीनी कर्मियों पर निर्भरता कम होती है।
AI पुलिसिंग के पीछे एक बड़ा कारण लंबे समय के क्रिमिनल डेटासेट की उपलब्धता है। मॉडर्न AI सिस्टम को क्रिमिनल ट्रैकिंग नेटवर्क और सिस्टम (CCTNS) के दशकों के रिकॉर्ड का इस्तेमाल करके ट्रेन किया जाता है , जिससे पैटर्न की जल्दी पहचान और कोल्ड-केस लिंकेज हो पाते हैं।
|
चिंता |
निहितार्थ |
|
सत्ता का केंद्रीकरण |
पुलिसिंग लोकल बीट ऑफिसर से हटकर दूर के डेटा सेंटर में शिफ्ट हो रही है, जिससे लोगों तक पहुंच और जवाबदेही कम हो रही है। |
|
“शहरों को कैद करना” |
बहुत ज़्यादा निगरानी से शक का एक पक्का माहौल बन जाता है, जहाँ रोज़मर्रा के व्यवहार पर गड़बड़ियों के लिए नज़र रखी जाती है। |
|
ऐतिहासिक पूर्वाग्रह |
AI पुराने पुलिसिंग पैटर्न को अपनाता है, जिससे जाति, समुदाय या इलाके के आधार पर भेदभाव के इंस्टीट्यूशनलाइज़ेशन का खतरा रहता है। |
|
अधिकारों का हनन |
असेंबली और गैदरिंग की मॉनिटरिंग से असहमति और एसोसिएशन की आज़ादी पर बुरा असर पड़ सकता है। |
लिखे हुए पुलिस मैनुअल के उलट, AI सिस्टम शायद ही कभी कोई ट्रांसपेरेंट रूलबुक देते हैं जिसमें बताया गया हो कि किसी व्यक्ति को क्यों फ़्लैग किया गया । इससे नागरिकों के लिए यह करना बहुत मुश्किल हो जाता है:
AI टूल्स उतने ही भरोसेमंद होते हैं, जितना उनका डेटा और कंडीशन। इनसे होने वाली गलतियाँ:
हालांकि डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट (DPDPA), 2023 मौजूद है, लेकिन “सिक्योरिटी” जैसे आधार पर राज्य को दी गई बड़ी छूट, सर्विलांस के गलत इस्तेमाल और बिना जांच वाली प्रोफाइलिंग से सुरक्षा में बड़ी कमी पैदा करती है।
प्रेडिक्टिव पुलिसिंग न्याय के लॉजिक को बदल देती है। सबूत सामने आने के बाद अपराध की जांच करने के बजाय, सिस्टम किसी भी गलत काम के साबित होने से पहले ही व्यवहार को संदिग्ध मानकर स्क्रीन करता है, जिससे दोषी साबित होने तक निर्दोष होने का संवैधानिक सिद्धांत कमजोर होता है ।
भारत को एक डेडिकेटेड लीगल फ्रेमवर्क की ज़रूरत है जो यह पक्का करे:
सहायक बने रहना चाहिए , अधिकारपूर्ण नहीं।
पुलिसिंग में इस्तेमाल होने वाले AI टूल्स का बार-बार ऑडिट होना चाहिए ताकि इन चीज़ों का पता लगाया जा सके और उन्हें खत्म किया जा सके:
सिर्फ़ इंटरनल एजेंसियों द्वारा ही नहीं, बल्कि इंडिपेंडेंट थर्ड-पार्टी संस्थाओं द्वारा भी किए जाने चाहिए ।
क्रिमिनल प्रोसीजर (आइडेंटिफिकेशन) एक्ट, 2022 जैसे कानूनों के लिए ज़्यादा मज़बूत सुरक्षा उपायों की ज़रूरत है ताकि:
टेक्नोलॉजी पुलिसिंग की क्षमता को मज़बूत कर सकती है, लेकिन यह संवैधानिक अनुशासन की जगह नहीं ले सकती। अगर इसे रोका नहीं गया, तो AI से चलने वाली पुलिसिंग बड़े पैमाने पर मॉनिटरिंग, एकतरफ़ा प्रोफ़ाइलिंग और बिना दिखे फ़ैसले लेने के ज़रिए शासन को डिजिटल तानाशाही में बदलने का खतरा है। एक असली सुरक्षित समाज पूरी निगरानी से नहीं, बल्कि भरोसे, पारदर्शिता, अनुपात और कानून के शासन से सुरक्षित होता है , जिससे यह पक्का होता है कि इनोवेशन संवैधानिक मूल्यों और लोकतांत्रिक जवाबदेही पर टिका रहे ।