আপনি আসল না নকল?

কৃত্রিম চেহারা শনাক্ত করা সহজ হবে। ছবি: রয়টার্স
কৃত্রিম চেহারা শনাক্ত করা সহজ হবে। ছবি: রয়টার্স

কম্পিউটারে এখন কৃত্রিম বুদ্ধিমত্তা ব্যবহার করেই মানুষের মুখ তৈরি করা যায়। আসল মানুষের সঙ্গে সহজে এসব চেহারার পার্থক্য করা না গেলেও এমন চেহারার কোনো মানুষের অস্তিত্ব পৃথিবীতে নেই। এসব ভুয়া চেহারা ইন্টারনেটের দুনিয়ায় নানা অপকর্মে ব্যবহারের আশঙ্কা রয়েছে। সম্প্রতি গবেষকেরা আসল চেহারার সঙ্গে কম্পিউটারে তৈরি ভুয়া চেহারার পার্থক্য বের করার পদ্ধতি উদ্ভাবন করেছেন। এ ক্ষেত্রে মানুষের হৃৎস্পন্দন কাজে লাগিয়েছেন। তাঁরা বলছেন, নতুন উদ্ভাবিত এ পদ্ধতিতে ডিজিটাল ফরেনসিকের কাজে নতুন পরিকল্পনা নিতে সাহায্য করবে।

ইতালির ট্রেনটো বিশ্ববিদ্যালয়ের গবেষকেরা বলেন, কম্পিউটার গ্রাফিকসে সম্প্রতি উন্নত হয়েছে, যাতে কম্পিউটারে তৈরি (সিজি) মানুষের চেহারা শনাক্ত করা কঠিন। প্রকৃত চেহারার সঙ্গে মিলিয়ে এমনভাবে এসব ভুয়া চেহারা তৈরি করা হচ্ছে, যাতে মানুষ সহজে পার্থক্য বের করতে পারছে না। কম্পিউটার জেনারেটেড বা সিজি কনটেন্টকে সহজে শনাক্ত করতে এবং মানুষের মধ্যে সচেতনতা তৈরিতে তাঁরা গবেষণা করেছেন।

গবেষকেরা বলেন, প্রকৃত চেহারার মধ্যে প্রাকৃতিক তরঙ্গ সংকেত থাকে, যা কোনো ভিডিও দৃশ্য থেকেও স্বয়ংক্রিয়ভাবে বের করা যায়।

গবেষণাসংক্রান্ত নিবন্ধ প্রকাশিত হয়েছে ‘ইলেকট্রনিক-ইমেজিং’ সাময়িকীতে। নিবন্ধে গবেষকেরা বলেছেন, মুখ থেকে নাড়ির হার অনুমানের জন্য অ্যালগরিদমকে কেন্দ্র করে এবং হৃৎস্পন্দনের পরিসংখ্যান বের করে তা ইনপুট ফেসকে শ্রেণিবদ্ধ করতে পারে। মানুষের চেহারায় যে তরঙ্গ পাওয়া যায় তা ভার্চ্যুয়াল চেহারায় পাওয়া যায় না।

দুর্বৃত্তরা ডিপফেক প্রযুক্তির ব্যবহার বাড়ানোর সঙ্গে সঙ্গে প্রাকৃতিক নাড়ির স্পন্দনের হার বিশ্লেষণ পদ্ধতির ব্যবহার বাড়বে বলে মনে করছেন গবেষকেরা।

বেশ কিছুদিন ধরেই আলোচনায় রয়েছে ডিপফেক প্রযুক্তি। ছবি বা ভিডিওকে বিকৃত ও কৃত্রিম বুদ্ধিমত্তার সাহায্যে নিখুঁতভাবে তৈরি করে হুবহু আসলের মতো বলে প্রচার করা হচ্ছে। বিষয়টি প্রযুক্তি জগতে ডিপফেক নামে পরিচিত হয়ে উঠেছে। কয়েক মাস ধরে ডিপফেক বিষয়টি মানুষের জন্য উদ্বেগের কারণ হয়ে উঠেছে।

সাম্প্রতিক এক গবেষণায় দেখা গেছে, গত ৯ মাসে ডিপফেক ভিডিও তৈরি করার বিষয়টি আশঙ্কাজনকভাবে বেড়েছে। অনলাইনে তা পোস্ট করার ঘটনাও বেড়েছে ৯ গুণ। এ ধরনের ভিডিও তৈরি করার ব্যবসাও এখন আকর্ষণীয় হয়ে উঠেছে।

বিবিসি অনলাইনের খবরে জানানো হয়, ডিপফেক ঘিরে সবচেয়ে উদ্বেগের জায়গা হচ্ছে রাজনৈতিক বক্তব্যকে বিকৃত করার বিষয়টি। অনেকেই রাজনৈতিক উদ্দেশ্যে ডিপফেক ভিডিও প্রচার করে ফায়দা লুটতে পারে। এ ছাড়া পর্নোগ্রাফির ক্ষেত্রেও ডিপফেক ভিডিওর ব্যবহার উদ্বেগ তৈরি করছে।

ভারতীয় বিশেষজ্ঞরা সতর্ক করেছেন, ডিপফেক কনটেন্ট ভারতসহ বহুজাতিক জনসংখ্যার দেশে ভয়াবহ বিপদ ডেকে আনতে পারে। দুষ্কৃতকারীরা বিকৃত কনটেন্ট ব্যবহার করে বিভিন্ন সম্প্রদায়ের মধ্যে বিবাদ তৈরি করতে পারে। তথ্যসূত্র: পিটিআই