ডিপফেকের ভয়ানক বিপদ সামনে

ডিপফেক ভিডিও বিপদের কারণ হতে পারে। ছবি: সংগৃহীত।
ডিপফেক ভিডিও বিপদের কারণ হতে পারে। ছবি: সংগৃহীত।

ছবি বা ভিডিওকে বিকৃত ও কৃত্রিম বুদ্ধিমত্তার সাহায্যে নিখুঁতভাবে তৈরি করে হুবহু আসলের মতো বলে প্রচার করা হচ্ছে। বিষয়টি প্রযুক্তি জগতে ডিপফেক নামে পরিচিত হয়ে উঠেছে। এখনই বিষয়টি ভয়ানক বিপদের কারণ হয়ে উঠছে বলে আশঙ্কা করছেন বিশেষজ্ঞরা। ডিপফেক ভুয়া ভিডিও একেবারে আসলের মতো দেখায় বলে ইতিমধ্যে বিনোদন দুনিয়ায় এর ব্যবহার নিয়ে ব্যাপক আলোচনা হচ্ছে।

ভারতীয় বিশেষজ্ঞরা সতর্ক করেছেন, ডিপফেক কনটেন্ট ভারতসহ বহুজাতিক জনসংখ্যার দেশে ভয়াবহ বিপদ ডেকে আনতে পারে। দুষ্কৃতকারীরা বিকৃত কনটেন্ট ব্যবহার করে বিভিন্ন সম্প্রদায়ের মধ্যে বিবাদ তৈরি করতে পারে।

কৃত্রিম বুদ্ধিমত্তার প্রোগ্রাম দিয়ে তৈরি এসব ভিডিওতে কোনো ব্যক্তিকে এমন কথা বলতে শোনা যায়, যা তারা বলেনি। এমন কাজ করতে দেখা যেতে পারে, যা তারা করেনি। ডিজিটাল প্রক্রিয়ায় বিকৃত করা এসব ভিডিও কনটেন্ট প্রচলিত টেক্সট ও বিকৃত করা ছবির চেয়েও বেশি মারাত্মক। এসব ভুয়া তথ্য মানুষকে বেশি টানতে পারে বা মানুষ এতে হুবহু আসলের মতো দেখতে বলে বিশ্বাস করে বসে।

বার্তা সংস্থা আইএএনএসকে প্রযুক্তি বিশেষজ্ঞ প্রশান্ত কে রয় বলেছেন, জনবহুল, কম সাক্ষরতা জ্ঞানসম্পন্ন ও জাতিগত স্পর্শকাতরতা রয়েছে—এমন জাতির জন্য ডিপফেক মারাত্মক বিপদের ঝুঁকি তৈরি করতে পারে।

সাইবার মিডিয়া রিসার্চের বিশেষজ্ঞ প্রভু রাম বলেন, দীর্ঘদিন ধরেই ছবি ও ভিডিও বিকৃত করার বিষয়টি চলে আসছে, তবে ডিপফেকের মতো ভিডিও বিকৃতির বিষয়টি সামাজিক প্রেক্ষাপটে সত্যিকারের ঝুঁকি তৈরি করতে পারে। বাজে লোকের হাতে পড়লে এসব সহজ টুল হিসেবে ভুয়া তথ্য ছড়াতে ব্যবহৃত হবে।

সম্প্রতি ডিপন্যুড ডিপফেক নামের একটি অ্যাপ সরিয়ে দেওয়া হয়েছে। ওই অ্যাপ সম্প্রতি জনপ্রিয় হয়ে উঠেছিল। অ্যাপে মাত্র কয়েক ক্লিকে ভার্চ্যুয়ালভাবে কাউকে দিগম্বর করার সুবিধা ছিল।

গত মাসে মার্ক জাকারবার্গের একটি ডিপফেক ভিডিও দ্রুত ছড়িয়ে পড়ার ঘটনা থেকেই এ ধরনের ভিডিওর ভয়াবহতা উপলব্ধি করা যায়।

গত জুন মাসে বিবিসির এক প্রতিবেদনে বলা হয়, মার্ক জাকারবার্গ সদৃশ কম্পিউটার প্রোগ্রামে তৈরি জাকারবার্গের একটি ভিডিও ক্লিপ ছড়িয়ে পড়ে। ওই ভিডিওতে জাকারবার্গের মতো কথা বলার বা মাথা নাড়ার দৃশ্য রয়েছে। ভিডিওটিতে জাকারবার্গের সফলতার পেছনে একটি গোয়েন্দা সংস্থার হাত রয়েছে বলে দাবি করা হয়। ভুয়া ভিডিওটি আবার ফেসবুকের মালিকানাধীন ইনস্টাগ্রামে পোস্ট করা হয়েছে। সব জেনেশুনেও ফেসবুক কর্তৃপক্ষ বলেছে, ওই ভিডিও তারা সরাবে না।

ভিডিওটি মূলত ‘ডিপফেক’ ভিডিও, যা আর্টিফিশিয়াল ইনটেলিজেন্স (এআই) ব্যবহার করে তৈরি করা হয়েছে। এতে কোনো ব্যক্তির ছবি ব্যবহার করে তার বিভিন্ন অ্যাকশন তৈরি করতে পারে।

এর আগে ফেসবুকে এমনই এক ভুয়া ভিডিও পোস্ট করা হয়েছিল যুক্তরাষ্ট্রের কংগ্রেসের ডেমোক্রেটিক স্পিকার ন্যান্সি পেলোসিকে নিয়ে। ওই ভিডিও নিয়ে সমালোচনার মুখে পড়তে হয় ফেসবুক কর্তৃপক্ষকে। ফেসবুক কর্তৃপক্ষ বলছে, এখন অনেক পোস্ট মেশিন লার্নিংভিত্তিক সফটওয়্যারে তৈরি হবে, যা স্বয়ংক্রিয়ভাবে ভিডিও শনাক্ত করা ও ফেসবুকে ক্ষতিকর কনটেন্ট সরিয়ে ফেলতে পারবে। এ ছাড়া তারা এমন টুল বা কম্পিউটার প্রোগ্রাম তৈরি করবে, যা কর্মীদের সম্ভাব্য ক্ষতিকর উপাদান শনাক্ত করতে সাহায্য করবে।

ফেসবুকের এক মুখপাত্র বলেন, ইনস্টাগ্রামে অন্য যেসব ভুয়া তথ্য যেভাবে দেখা হয়, এটি সেভাবে দেখা হবে। যদি থার্ড পার্টি ফ্যাক্ট চেকাররা একে ভুয়া বলে মত দেয়, তবে তা ফিল্টার করা হবে।

গত মাসে যুক্তরাষ্ট্রের স্পিকার ন্যান্সি পেলোসির একটি নকল ভিডিও সরাতে অস্বীকৃতি জানায় ফেসবুক। এতে পেলোসি ক্ষিপ্ত হন। তখন ফেসবুক কর্তৃপক্ষকে জিজ্ঞেস করা হয়, পেলোসির জায়গায় যদি জাকারবার্গকে নিয়ে এমন ভিডিও তৈরি হতো, তাহলে কি একই আচরণ করা হতো?

ডিপফেক নিয়ে উদ্বেগ প্রকাশ করে বিশেষজ্ঞরা বলছেন, সাধারণ ভুয়া খবর বা তথ্য সরানোর চেয়েও ডিপফেক কনটেন্ট সরানো কঠিন হয়ে যাবে।

পিউ রিসার্চের এক গবেষণায় বলা হয়, যুক্তরাষ্ট্রের বেশির ভাগ প্রাপ্তবয়স্ক ব্যক্তি মনে করেন, বিকৃত ভিডিও তাঁদের মধ্যে সাম্প্রতিক ঘটনা ও বিষয়গুলো নিয়ে বিভ্রান্তি সৃষ্টি করবে।

ডিপফেক ছড়িয়ে পড়লে এমন অবস্থা হবে, যখন মানুষ যখন নিজের চোখে দেখা বিষয়গুলো বিশ্বাস করবে না। মানুষের মধ্যে বিশ্বাস নষ্ট হয়ে যাবে। দুর্বৃত্তরা এ সুযোগ কাজে লাগিয়ে ভুয়া ভিডিও বা কনটেন্ট তৈরি করে ব্যক্তি, বিশেষ গোষ্ঠী ও সম্প্রদায়ের ওপর মিথ্যা প্রমাণের চেষ্টা চালাবে।

বিশেষজ্ঞরা বলছেন, ডিপফেক ভিডিও ধরার জন্য স্বয়ংক্রিয় শনাক্তকরণ প্রক্রিয়া এখনো প্রাথমিক পর্যায়ে রয়েছে। তবে এ ক্ষেত্রে সচেতনতা ও প্রযুক্তি সহায়তা যুক্ত করে এ ধরনের কনটেন্টকে ফ্ল্যাগ দেখানোর সুযোগ থাকা উচিত। সামাজিক যোগাযোগমাধ্যমগুলোকেও এ বিষয়ে যথাযথ পদক্ষেপ নিতে হবে।