जहाँ भी आप मुड़ें, वहाँ कोई न कोई ऑनलाइन घोटाला है। धोखेबाज हमेशा ध्यान केंद्रित करते हैं और अब वह राजनीति है और चुनाव.

हम एक नया iPhone 16 (1,500 डॉलर मूल्य!) दे रहे हैं। जीतने के लिए यहां प्रवेश करें।

फर्जी दान अभियानों से सावधान रहें

अरबों डॉलर का निवेश हो रहा है 2024 सदनसीनेट और राष्ट्रपति चुनाव। मुझे यकीन है कि आपको लोगों से एक या दस कॉल आए होंगे जो आपसे अपना बटुआ निकालने के लिए कह रहे होंगे। अनुरोध टेक्स्ट फॉर्म में भी आते हैं, साथ ही वीडियो, सोशल मीडिया पोस्ट और डीएम भी होते हैं।

इससे पहले कि बहुत देर हो जाए, अपने पारिवारिक वीडियो के साथ ऐसा करें

अपने धन को सुरक्षित रखने के लिए यहां कुछ बातें बताई गई हैं कि क्या करें और क्या न करें।

  • क्रेडिट कार्ड का उपयोग अवश्य करें. चेक और डेबिट कार्ड को घोटाले से समान सुरक्षा नहीं मिलती।
  • फ़ोन पर भुगतान संबंधी जानकारी न दें. आधिकारिक वेबसाइट खोजें और वहां दान करें।
  • लिंक पर क्लिक न करें. इसमें ईमेल, टेक्स्ट या किसी अन्य स्रोत से प्राप्त जानकारी शामिल है। जब संदेह हो, तो उस व्यक्ति की आधिकारिक अभियान वेबसाइट पर जाएँ जिसका आप समर्थन करना चाहते हैं।
  • कृपया सत्यापित करें कि यह एक वास्तविक संगठन है। पंजीकृत PAC की सूची यहां दी गई है संघीय चुनाव आयोग द्वारा बनाए रखा गया।
  • PAC नाम के लिए खोज करें. अरे, यह देखना उचित है कि कहीं कुछ गड़बड़ तो नहीं है। कुछ लोग अपने सलाहकारों और मार्केटिंग बजट में पैसा लगाते हैं – उस उम्मीदवार में नहीं जिसका वे समर्थन करने का दावा करते हैं। यह पृष्ठ उपयोगी है, बहुत।

जो बिडेन ने सोशल मीडिया पर अमेरिकी राष्ट्रपति पद की दौड़ से अपने हटने के बारे में पोस्ट किया, जैसा कि 21 जुलाई 2024 को ब्रुसेल्स, बेल्जियम में ली गई इस तस्वीर में देखा जा सकता है। (जोनाथन रा/नूरफोटो गेट्टी इमेजेस के माध्यम से)

सोशल मीडिया प्रो टिप: टिकटॉक पर प्रतिबंध लगा दिया गया राजनीतिक धन उगाही 2022 में। वहां जो भी चीज आपको दान देने के लिए कह रही है, वह संभवतः एक घोटाला है – या कोई व्यक्ति नियमों की धज्जियां उड़ा रहा है और आप उसमें शामिल नहीं होना चाहते हैं।

झूठी जानकारी पहले से कहीं अधिक तेजी से फैल रही है

एक झूठ जो सुरक्षा विशेषज्ञ हर समय बोलते हैं और आपको भी बोलना चाहिए

आपको सिर्फ़ अपने बटुए की ही चिंता नहीं करनी है। ऑनलाइन फ़र्जी खबरें बहुत तेज़ी से फैलती हैं – मैंने “चुनाव रद्द कर दिया गया है” से लेकर “गैर-नागरिकों को इस साल वोट देने का अधिकार है” तक सब कुछ देखा है।

कुछ मामलों में, विदेशी देश बड़े पैमाने पर गलत सूचना अभियान चलाकर इसके पीछे हैं। मेटा का कहना है कि क्रेमलिन ही इसका मुख्य कारण है। नंबर 1 स्रोत अमेरिकी राष्ट्रपति चुनाव से पहले एआई द्वारा निर्मित गलत सूचनाओं का खुलासा हुआ है।

फेसबुक, ट्विटर और व्हाट्सएप के आइकन

15 नवंबर, 2018 को जर्मनी के गेल्सेंकिर्चेन में एक आईफोन पर फेसबुक और व्हाट्सएप के आइकन देखे गए। (एपी फोटो/मार्टिन मीस्नर, फ़ाइल)

सबसे आम तरकीब फेसबुक पर? काल्पनिक “पत्रकार” जो फर्जी खबरें लिखते हैं। अगर यह कोई ऐसा आउटलेट है जिसके बारे में आपने कभी नहीं सुना है, तो कहानी की पुष्टि के लिए कहीं और देखें।

अन्य मामलों में, फर्जी जानकारी इसलिए फैलती है क्योंकि किसी ने मजाक को सच मान लिया। सोशल मीडिया पर छाए नकली चुनावी नक्शों को ही लें। चलन यह है कि एक खाली नक्शा लिया जाता है, उसे ज़्यादातर नीला या लाल रंग दिया जाता है, और इस पर डेमोक्रेट्स के बारे में एक चतुर लाइन चिपका दी जाती है। या रिपब्लिकन इलेक्टोरल कॉलेज में जीत सकते हैं। वे असली नहीं हैं; उन्हें ऐसे शेयर न करें जैसे वे असली हों।

गूगल या जीमेल का स्टोरेज फुल हो गया है? जगह खाली करने के आसान तरीके

AI छवियों और वीडियो को पहचानना सीखें

चुनावी फर्जीवाड़े को पहचानना खास तौर पर मुश्किल है क्योंकि नेताओं के भाषणों की बहुत सारी सार्वजनिक फुटेज होती है। जितना ज़्यादा प्रशिक्षण डेटा होगा, उतनी ही अच्छी कॉपी बनेगी।

मैंने स्टिकर एरिज़ोना को वोट दिया

“मैंने मतदान किया” स्टिकर के रोल को 3 जून, 2024 को फीनिक्स, एरिज़ोना में 2024 एरिज़ोना प्राथमिक और आम चुनावों से पहले मैरिकोपा काउंटी सारणीकरण और चुनाव केंद्र में संग्रहीत किया गया है। (पैट्रिक टी. फॉलन/एएफपी)

लेकिन आप यह सत्यापित करने के लिए इन दिशानिर्देशों का उपयोग कर सकते हैं कि यह AI है या नहीं:

  • पृष्ठभूमि: अस्पष्ट, धुंधली पृष्ठभूमि, चिकनी सतह या मेल न खाने वाली रेखाएं तत्काल संकेत हैं कि छवि AI द्वारा उत्पन्न की गई है।
  • प्रसंग: अपने दिमाग का इस्तेमाल करें। अगर दृश्य वर्तमान जलवायु, मौसम या शारीरिक रूप से संभव चीज़ों के साथ मेल नहीं खाता है, तो इसका मतलब है कि यह नकली है।
  • व्यवहार: आपने शायद अधिकांश प्रमुख उम्मीदवारों के कई वीडियो देखे होंगे। उनके लहजे, स्वर और ताल में अंतर देखें। अगर उनकी वाणी या चेहरे की प्रतिक्रिया “अजीब” लगती है, तो यह AI हो सकता है।
  • अनुपात: ऐसी वस्तुओं की जाँच करें जो आपस में चिपकी हुई दिखें या बहुत बड़ी या छोटी लगें। यही बात विशेषताओं, खासकर कान, उँगलियों और पैरों पर भी लागू होती है।
  • कोण: डीपफेक तब सबसे ज़्यादा विश्वसनीय होते हैं जब विषय सीधे कैमरे की ओर होता है। जब कोई व्यक्ति एक तरफ़ मुड़ना और हिलना शुरू करता है, तो गड़बड़ियाँ दिखाई दे सकती हैं।
  • मूलपाठ: AI वर्तनी नहीं बता सकता। संकेतों और लेबलों पर नकली शब्दों की तलाश करें।
  • चिन: हां, आपने मेरी बात सही सुनी। चेहरे का निचला आधा हिस्सा AI द्वारा बनाए गए उम्मीदवारों के वीडियो में सबसे ज़्यादा दिखाई देता है। यह सूक्ष्म है, लेकिन यह देखने के लिए जाँच करें कि क्या उनकी ठोड़ी या गर्दन अस्वाभाविक रूप से या अतिरंजित तरीके से हिलती है।
  • उंगलियाँ और हाथ: अजीब स्थितियों, बहुत सारी अंगुलियों, अतिरिक्त लंबी अंगुलियों या हाथों को अपनी जगह से हटे हुए होने पर ध्यान दें।
  • सामान: झुमके, कपड़े, टाई – जो भी आपको नज़र आए, उसे देखें। अक्सर इन छोटी-छोटी बातों में ही सारा राज छिपा होता है।

मेरी सबसे अच्छी सलाह: धीरे-धीरे आगे बढ़ें। जब कोई वीडियो हमें भावनात्मक रूप से प्रभावित करता है, तो हम जल्दी से उस पर यकीन कर लेते हैं और उसे शेयर कर देते हैं। यही वह चीज है जिस पर स्कैमर्स भरोसा करते हैं। इसे कुछ बार देखें और अपना मन बनाने से पहले अच्छी तरह रिसर्च करें।

फॉक्स न्यूज ऐप प्राप्त करने के लिए यहां क्लिक करें

अपने शेड्यूल के अनुसार तकनीक को और बेहतर बनाएं

पुरस्कार विजेता होस्ट किम कोमांडो तकनीक के क्षेत्र में आपकी गुप्त हथियार हैं।

कॉपीराइट 2024, वेस्टस्टार मल्टीमीडिया एंटरटेनमेंट। सभी अधिकार सुरक्षित।

Source link