ग्रोक का इमेज-एडिट टूल CSAM खामियों पर प्रतिक्रिया का सामना कर रहा है
एलन मस्क का AI चैटबॉट ग्रोक सुरक्षा खामियों को भरने के लिए दौड़ रहा है, क्योंकि उपयोगकर्ताओं ने इसके नए इमेज-एडिटिंग फीचर का दुरुपयोग करके नाबालिगों और महिलाओं की मादक छवियां बनाई। दिसंबर के अंत में शुरू किया गया “इमेज संपादित करें” बटन, क्योंकि सुरक्षा उपाय स्पष्ट छेड़छाड़ को रोकने में विफल रहे।
ट्विटर के पूर्व के रूप में जाने जाने वाले मंच पर शिकायतें उजागर करती हैं कि कैसे कुछ उपयोगकर्ताओं ने तस्वीरों में महिलाओं और बच्चों के कपड़े आंशिक या पूर्ण रूप से हटाने के लिए टूल का दुरुपयोग किया। एक पोस्ट में, ग्रोक ने “सुरक्षा उपायों में खामियों” को स्वीकार किया और त्वरित सुधार की प्रतिज्ञा की, बल देते हुए कि बाल यौन दुर्व्यवहार सामग्री (CSAM) “अवैध और निषिद्ध” है।
xAI, ग्रोक के पीछे की कंपनी ने मीडिया पूछताछ का ऑटोमेटेड संदेश के साथ जवाब दिया, जिसमें “मुख्यधारा मीडिया” पर झूठ फैलाने का आरोप लगाया। फिर भी ग्रोक ने X उपयोगकर्ता की कानूनी चिंताओं का अधिक सीधे उत्तर दिया, नोट करते हुए कि अमेरिकी कानून कंपनियों को जानबूझकर बाल अश्लीलता को सुविधाजनक बनाने या रोकने में विफल होने के लिए जिम्मेदार ठहरा सकता है।
विवाद ने अंतरराष्ट्रीय निगरानी को प्रेरित किया है। भारतीय नियामक ने X से यह विवरण करने की मांग की है कि ग्रोक द्वारा “भद्दे, नग्न, अश्लील और यौन रूप से सुझाव देने वाले सामग्री” की पीढ़ी को रोकने के लिए किस तरह के उपाय किए गए हैं। फ्रांस में, पेरिस में सार्वजनिक अभियोजक कार्यालय ने X पर एक पहले से जारी जांच का विस्तार किया है — जो जुलाई में संभावित विदेशी हस्तक्षेप पर शुरू हुई थी — आरोपों को शामिल करने के लिए कि ग्रोक का उपयोग बाल अश्लीलता बनाने और वितरित करने के लिए किया गया था।
जैसे ही xAI अपने फिल्टर को मजबूत करने और नीतियों को स्पष्ट करने के लिए दौड़ रहा है, इस घटना ने AI शासन में व्यापक चुनौतियों को उजागर किया है। विशेषज्ञ चेतावनी देते हैं कि रचनात्मक टूल्स का संतुलन मजबूत सुरक्षा उपायों के साथ करना महत्वपूर्ण होगा अगर ऐसे मंच को विश्वास निर्माण और दुरुपयोग रोकना है।
Reference(s):
Musk's Grok under fire after complaints it undressed minors in photos
cgtn.com








