ইসরায়েল–যুক্তরাষ্ট্রের বিমান হামলায় তেহরানের বহু ভবন বিধ্বস্ত হয়েছে
ইসরায়েল–যুক্তরাষ্ট্রের বিমান হামলায় তেহরানের বহু ভবন বিধ্বস্ত হয়েছে

বিশ্লেষণ

ইরান যুদ্ধে কৃত্রিম বুদ্ধিমত্তার ব্যবহার যে নতুন সংকট ডেকে আনছে

কৃত্রিম বুদ্ধিমত্তা যুদ্ধকে বিপজ্জনক করে তুলেছে। কৃত্রিম বুদ্ধিমত্তানির্ভর যুদ্ধ কীভাবে জবাবদিহির জন্য নতুন সংকট তৈরি করেছে, তা নিয়ে লিখেছেন রিজওয়ান-উল-আলম

যুদ্ধের শুরুর দিকে দক্ষিণ ইরানের মিনাবের একটি মেয়েদের স্কুলে বোমা হামলায় ৭ থেকে ১২ বছর বয়স দেড় শতাধিক শিশু নিহত হয়। সেই হামলার লক্ষ্য নির্ধারণে ব্যবহৃত হয়েছিল একটি এআই (কৃত্রিম বুদ্ধিমত্তা) সফটওয়্যার। প্রযুক্তির এই ব্যবহার খুবই তাৎপর্যপূর্ণ। ইরান বনাম যুক্তরাষ্ট্র-ইসরায়েল সংঘাতের সবচেয়ে বড় ভয় শুধু এটা নয় যে ক্ষেপণাস্ত্র আরও দ্রুত ছুটছে, ড্রোন আরও দূর পর্যন্ত নজর রাখতে পারছে বা কম্পিউটার দ্রুত হিসাব করতে পারছে। আসল উদ্বেগ অন্য জায়গায়। একসময় যুদ্ধের সিদ্ধান্ত নেওয়ার আগে মানুষের ভেতরে যে দ্বিধা কাজ করত, যেখানে বিবেক, সংশয়, বিচারবোধ ও আইনের প্রশ্ন সামনে আসত, সেই মানবিক বিরতিটাই ধীরে ধীরে যুদ্ধক্ষেত্র থেকে সরে যাচ্ছে।

এ কারণেই ২০২৬ সালের ২৮ ফেব্রুয়ারির হামলাগুলো শুধু ইরানকে ঘিরে একটি সামরিক ঘটনার মধ্যে সীমাবদ্ধ নয়। এগুলো গোটা বিশ্বের জন্য একটি সতর্কবার্তা। যুক্তরাষ্ট্র যাকে অপারেশন ‘এপিক ফিউরি’ বলছে এবং ইসরায়েল যাকে ‘রোরিং লায়ন’ নামে ডাকছে, সেটিকে হয়তো একদিন সেই সন্ধিক্ষণ হিসেবেই দেখা হবে, যখন কৃত্রিম বুদ্ধিমত্তা যুদ্ধের পেছনের বিশ্লেষণ কক্ষ থেকে উঠে এসে সরাসরি হত্যার সিদ্ধান্তের কেন্দ্রে বসে পড়ল।

২.

বহু বছর ধরে সামরিক ক্ষেত্রে কৃত্রিম বুদ্ধিমত্তা নিয়ে ভাষা খুবই মোলায়েম রাখা হয়েছে। বলা হয়েছে, এটি কমান্ডারদের সহায়তা করবে, গোয়েন্দা বিশ্লেষণকে শক্তিশালী করবে, আঘাতকে আরও নির্ভুল করবে এবং যুদ্ধক্ষেত্র সম্পর্কে বোঝাপড়া বাড়াবে। কথাটি ছিল যন্ত্র মানুষকে আরও ভালো সিদ্ধান্ত নিতে সাহায্য করবে। কিন্তু এখন সেই প্রতিশ্রুতি এক নতুন বাস্তবতায় এসে দাঁড়িয়েছে। যন্ত্র আর শুধু সিদ্ধান্তে সহায়তা করছে না। সেটি সিদ্ধান্তের গতি নির্ধারণ করছে, তার কাঠামো গড়ে দিচ্ছে, তার পরিসর সংকুচিত করছে এবং অনেক সময় মানুষ কিছু বোঝার আগেই পুরো প্রক্রিয়াকে এমনভাবে সাজিয়ে দিচ্ছে, যেখানে মানুষের ভূমিকা কেবল আনুষ্ঠানিক হয়ে পড়ছে।

বর্তমান সংঘাতের সবচেয়ে বড় পরিবর্তনটি এখানেই। পুরোনো যুদ্ধক্ষেত্রও ছিল নির্মম, কিন্তু সেখানে অন্তত পর্যবেক্ষণ, বিশ্লেষণ, বিবেচনা, অনুমোদন ও আঘাত হানার কিছু আলাদা ধাপ ছিল। এখন সেই পুরো শৃঙ্খল কয়েক সেকেন্ডে গুটিয়ে আসছে। সেন্সর তথ্য তুলছে, মডেল তা প্রক্রিয়াজাত করছে, সিস্টেম লক্ষ্যবস্তু সাজিয়ে দিচ্ছে, কমান্ডার দ্রুত একবার আউটপুট দেখে নিচ্ছেন, তারপর অস্ত্র ছুড়ে দেওয়া হচ্ছে। আগে যেটি নিয়ে দীর্ঘ সময় ধরে যাচাই-বাছাই করা হতো, এখন সেটি মুহূর্তেই ঘটছে। যুদ্ধ এখন সিদ্ধান্ত সংকোচনের যুগে ঢুকে পড়েছে, আর আন্তর্জাতিক আইন সেই গতির সঙ্গে তাল মেলাতে পারছে না। শব্দটি প্রযুক্তিগত শোনালেও এর অর্থ অত্যন্ত স্পষ্ট। কৃত্রিম বুদ্ধিমত্তা মানুষের ভাবার সময় কমিয়ে দিচ্ছে। আর যখন যুদ্ধ চিন্তার চেয়ে দ্রুতগতির হয়ে ওঠে, তখন সবার আগে ক্ষতিগ্রস্ত হয় জবাবদিহি।

ইরানের ওপর হামলায় কৃত্রিম বুদ্ধিমত্তার ভূমিকা নিয়ে যে আলোচনা হচ্ছে, তাতেই এই বাস্তবতা পরিষ্কার। জটিল আক্রমণ পরিকল্পনা, যা একসময় গোয়েন্দা কর্মকর্তা, আইনি উপদেষ্টা ও জ্যেষ্ঠ সামরিক নেতৃত্বের দীর্ঘ পর্যালোচনার ওপর নির্ভর করত, এখন এমন সিস্টেমের হাতে চলে যাচ্ছে, যা অতি দ্রুত বিপুল তথ্য বিশ্লেষণ করতে পারে। কাগজে-কলমে মানুষ এখনো সিদ্ধান্তের ভেতরে আছে। কিন্তু বাস্তবে এই কথাটি ক্রমেই একটি সান্ত্বনাসূচক বাক্যে পরিণত হচ্ছে। কারণ, যে মানুষকে কয়েক সেকেন্ডের মধ্যে এআই তৈরি সুপারিশে সায় দিতে হয়, তিনি প্রকৃত অর্থে নিয়ন্ত্রণ করছেন না। তিনি প্রযুক্তির চাপে তৈরি একটি দ্রুত প্রক্রিয়াকে অনুমোদন করছেন মাত্র। বাস্তবতা হলো যন্ত্র প্রস্তাব দিচ্ছে, মানুষ মাথা নাড়ছে, তারপর ক্ষেপণাস্ত্র উড়ে যাচ্ছে।

বিভিন্ন প্রতিবেদনে বলা হচ্ছে অভিযানের প্রথম ২৪ ঘণ্টাতেই এআই পরিচালিত সিস্টেম যুক্তরাষ্ট্রকে এক হাজারের বেশি লক্ষ্যবস্তু শনাক্ত ও অগ্রাধিকার ঠিক করতে সাহায্য করেছে। আগের সময়ে এ পরিমাণ লক্ষ্য নির্ধারণ করতে বিশাল গোয়েন্দা-কাঠামো, হাজারো কর্মী এবং দীর্ঘ পর্যালোচনা প্রক্রিয়া লাগত। এখন সেই কাজ খুব অল্প মানুষ নিয়ে করা সম্ভব হচ্ছে। সামরিক কৌশলবিদেরা একে দক্ষতা বলে দেখাতে পারেন। কিন্তু যুদ্ধের ক্ষেত্রে দক্ষতা কখনোই নিরপেক্ষ কোনো গুণ নয়। এর সঙ্গে সব সময়ই একটি কঠিন প্রশ্ন জড়িয়ে থাকে—দক্ষতা কিসের জন্য এবং তার মূল্য দিচ্ছে কে।

কারণ, গতি যখন সবচেয়ে বড় গুণে পরিণত হয়, তখন নৈতিক দ্বিধা ও মানবিক বিরতির জায়গাগুলোকে অকার্যকর বাধা হিসেবে দেখা শুরু হয়। এখানেই অর্থবহ মানবিক নিয়ন্ত্রণ নিয়ে প্রশ্নটি জরুরি হয়ে ওঠে। স্বয়ংক্রিয় অস্ত্র নিয়ে আন্তর্জাতিক আলোচনায় বহুদিন ধরে বলা হয়েছে, জীবন-মৃত্যুর সিদ্ধান্তে মানুষের একটি কার্যকর ও গভীর ভূমিকা থাকতে হবে। কিন্তু অ্যালগরিদম যখন এত দ্রুতগতিতে মানুষকে নম্বর দিচ্ছে, অগ্রাধিকার ঠিক করছে, সন্দেহের তালিকা বানাচ্ছে এবং আক্রমণের সুপারিশ তুলছে, তখন সেই মানবিক নিয়ন্ত্রণ কতটা সত্যিই অর্থবহ থাকে? যখন সিস্টেমের আউটপুট আত্মবিশ্বাস, পূর্বাভাস এবং নির্ভুলতার ভাষায় সামনে আসে, তখন মানুষ স্বাভাবিকভাবেই তার প্রতি আস্থা রাখতে শুরু করে। এখানেই বিপদ। যন্ত্র শুধু দ্রুত নয়, সেটি অনেক সময় বেশি নিশ্চিত বলেও মনে হয়।

যুদ্ধে স্বয়ংক্রিয়তার প্রতি পক্ষপাত এভাবেই কাজ করে। মানুষ ধীরে ধীরে যন্ত্রের সিদ্ধান্তকে বেশি বিশ্বাস করতে শুরু করে। সব সময় সচেতনভাবে নয়, সব সময় আগ্রহ নিয়ে নয়; কিন্তু ধীরে ধীরে প্রতিষ্ঠানের ভেতরে এই নির্ভরতা গড়ে ওঠে। অপারেটর মডেলকে বিশ্বাস করেন; কমান্ডার প্রক্রিয়াকে বিশ্বাস করেন; প্রতিষ্ঠান সিস্টেমের ওপর নির্ভর করে। কারণ, সেটি দ্রুত, বড় পরিসরে কাজ করতে সক্ষম এবং ইতিমধ্যেই সামরিক নীতিতে ঢুকে গেছে। একসময় দেখা যায় দায়িত্ব কাগুজে মানুষের; কিন্তু চিন্তার দিকনির্দেশনা চলে গেছে যন্ত্রের হাতে।

এই পরিবর্তনের সবচেয়ে উদ্বেগজনক উদাহরণ দেখা যাচ্ছে ইসরায়েলের ক্ষেত্রে। ‘ল্যাভেন্ডার’, ‘দ্য গসপেল’ এবং ‘হয়্যারস ড্যাডি’ ধরনের সিস্টেমগুলো যুদ্ধের ধরনই বদলে দিচ্ছে। এসব প্রযুক্তি শুধু শত্রু শনাক্ত করে না; ডেটা বিশ্লেষণ করে মানুষকে লক্ষ্যবস্তু বানায়। কার সঙ্গে কার সম্পর্ক, কে কোথায় যায়, কার সঙ্গে যোগাযোগ করে বা কোন আচরণ সন্দেহজনক মনে হয়, এসব তথ্য বিশ্লেষণ করে সিদ্ধান্ত তৈরি করা হয়।

এর ফলে একজন মানুষ আর মানুষ হিসেবে থাকে না। তিনি একটি সংখ্যায় বা স্কোরে পরিণত হন। একটি বাড়ি হয়ে যায় শুধু একটি স্থানাঙ্ক। পরিবারের মানুষগুলোও বড় সামরিক হিসাবের ক্ষতির অংশে বদলে যায়। এটি শুধু প্রযুক্তির অগ্রগতি নয়। যুদ্ধকে মানুষের থেকে দূরে সরিয়ে দেওয়ার একধরনের পদ্ধতি। আর এই নৈতিক দূরত্বই শেষ পর্যন্ত মানুষকে মেরে ফেলে। কৃত্রিম বুদ্ধিমত্তানির্ভর দক্ষতার মানবিক মূল্য কোনো তাত্ত্বিক আলোচনা নয়। তা মৃত মানুষের শরীরের মধ্যেই লেখা থাকে।

এমন ঘটনার পর সাধারণত একই ভাষা শোনা যায়। তদন্ত হবে, পর্যালোচনা হবে, উদ্বেগ জানানো হবে। কিন্তু বিষয়টি শুধু একটি হামলার ভুল নয়। এর ভেতরে আরও গভীর কিছু আছে। যখন একটি অ্যালগরিদম স্থানাঙ্ক ঠিক করে, লক্ষ্যবস্তু চিহ্নিত করে এবং হামলার সুপারিশ দেয়, তখন মানব অপারেটর ইতিমধ্যেই সেই সিদ্ধান্তের নৈতিক ভার থেকে কিছুটা দূরে সরে যান। যন্ত্র যেন আগেই সব ভেবে রেখেছে। ফলে সহিংসতা আর সহিংসতা বলে মনে হয় না, তা একটি প্রক্রিয়াগত পদক্ষেপে পরিণত হয়।

কৃত্রিম বুদ্ধিমত্তানির্ভর যুদ্ধকে একই সঙ্গে এত আকর্ষণীয় এবং এত বিপজ্জনক করে তুলেছে এ কারণেই। এটি শুধু কাজকে দ্রুত করে না, এটি নৈতিক দায়ও ছড়িয়ে দেয়। সমস্যা আরও গভীর হয়, কারণ এই প্রযুক্তিগুলো সত্যের নিশ্চয়তা দেয় না। বড় ভাষা মডেল কিংবা এ ধরনের এআই ব্যবস্থা সত্যযন্ত্র নয়। এগুলো সম্ভাবনার ওপর দাঁড়ানো ব্যবস্থা। এগুলো ভুল পড়তে পারে, বাড়িয়ে বলতে পারে এবং মিথ্যা আউটপুটও তৈরি করতে পারে। দৈনন্দিন জীবনে এর ফল হতে পারে বিভ্রান্তি, ভুল তথ্য বা আর্থিক ক্ষতি। কিন্তু যুদ্ধক্ষেত্রে এর ফল হতে পারে মৃত্যু। এমন প্রযুক্তিকে হত্যা-শৃঙ্খলের ভেতরে বসানো মানে অনিশ্চয়তাকে প্রাতিষ্ঠানিক রূপ দেওয়া এবং সেটিকে নির্ভুলতার ভাষায় চালিয়ে দেওয়া।

৩.

যুদ্ধক্ষেত্র এখন আর শুধু রাষ্ট্রের হাতে গড়ে উঠছে না। এই যুদ্ধের আরেকটি বড় বৈশিষ্ট্য হলো সামরিক অবকাঠামোর ক্রমবর্ধমান বেসরকারীকরণ। সিলিকন ভ্যালির কোম্পানিগুলো দূর থেকে এই সংঘাত দেখছে না। তারা এমন ডিজিটাল স্থাপত্য তৈরি করছে, যার ওপর আধুনিক যুদ্ধ দাঁড়িয়ে আছে। এআই মডেল, ক্লাউড সিস্টেম, সেন্সর ফিউশন, তাৎক্ষণিক বিশ্লেষণ, সিমুলেশন টুল এবং ডেটা প্রবাহ মিলিয়ে যুদ্ধ এখন রাষ্ট্রের সহিংসতা ও বেসরকারি প্রযুক্তি শক্তির এক ‘ঘনিষ্ঠ জোট’-এর ওপর নির্ভরশীল হয়ে পড়ছে।

যেকোনো গণতান্ত্রিক সমাজের জন্য এটি বড় উদ্বেগের বিষয়। কারণ, যখন যুদ্ধ আউটসোর্স করা মডেল এবং বেসরকারি নিয়ন্ত্রিত ডিজিটাল অবকাঠামোর ওপর দাঁড়ায়, তখন জনপর্যায়ের তদারকি দ্রুত দুর্বল হয়ে পড়ে। সাধারণ নাগরিক জানেন না মডেলের ভেতরে কী আছে; সংসদ জানে না প্রশিক্ষণ ডেটা কী ছিল; আদালত ঘটনাপ্রবাহের তুলনায় অনেক ধীরে চলে; সাংবাদিকেরা প্রবেশাধিকার পান না; রাষ্ট্র বলে নিরাপত্তার কথা, কোম্পানি বলে চুক্তিগত গোপনীয়তার কথা। এর ফলে এমন এক অস্বচ্ছতা তৈরি হয়, যেখানে প্রাণঘাতী ক্ষমতা বাড়তে থাকে, কিন্তু গণজবাবদিহি কমতে থাকে।

এর সঙ্গে জুড়ে যায় মুনাফা বা লাভের প্রশ্নও। উদীয়মান ‘এআই ক্লাউড ডিফেন্স কমপ্লেক্স’ শুধু জাতীয় নিরাপত্তার কারণেই এগোচ্ছে না; এর পেছনে আছে প্রতিরক্ষা চুক্তি, বাজার দখলের প্রতিযোগিতা, বিনিয়োগকারীদের প্রত্যাশা এবং ভবিষ্যতের কৌশলগত জায়গা দখলের লড়াই। যে কোম্পানিগুলো একসময় নৈতিক সীমার কথা বলেছিল, তারাও এখন রাষ্ট্রের নিরাপত্তা এজেন্ডার সঙ্গে নিজেদের মিলিয়ে নেওয়ার চাপ অনুভব করছে; যারা আপত্তি করবে তারা প্রান্তিক হয়ে পড়তে পারে; যারা মানিয়ে নেবে তারা প্রভাব ও মুনাফা দুই-ই পাবে। তখন নৈতিকতা আর স্থির নীতি থাকে না, বরং ভূরাজনৈতিক চাপের মুখে বদলে যাওয়া এক করপোরেট অবস্থানে পরিণত হয়।

এই যুদ্ধ শুধু ক্ষেপণাস্ত্র, ড্রোন ও সাইবার হামলায় সীমাবদ্ধ নয়। ইন্টারনেট ব্ল্যাকআউট, ডিপফেক, ভুয়া স্যাটেলাইট ছবি এবং কৃত্রিম বুদ্ধিমত্তা তৈরি ভাইরাল ভিডিও এখন যুদ্ধের অংশ। আজকের সংঘাত শুধু অবকাঠামো ধ্বংসের লড়াই নয়। এটি মানুষের উপলব্ধি নিয়ন্ত্রণের লড়াইও। নীরবতা তৈরি হয়; তারপর সেই নীরবতা মিথ্যা ছবিতে ভরে ওঠে। আতঙ্ক সত্য যাচাইয়ের আগেই ছড়িয়ে পড়ে। সামাজিক যোগাযোগমাধ্যম তথ্যের আগে আবেগকে পুরস্কৃত করে। ফলে মানুষ এমন সব দৃশ্য দেখে—যা বিশ্বাসযোগ্য, ভয়ংকর; কিন্তু সত্য নয়।

এটি কৃত্রিম বুদ্ধিমত্তানির্ভর যুদ্ধের সবচেয়ে অস্থিতিশীল দিকগুলোর একটি। সত্য এখন ধীর, দুর্বল এবং অলাভজনক হয়ে পড়েছে। মিথ্যা হয়ে পড়েছে দ্রুত, উত্তেজনাপূর্ণ এবং লাভজনক। এমন এক পৃথিবীতে প্রচারণার জন্য আর আলাদা কোনো মন্ত্রণালয়ও প্রয়োজন হয় না। একটি নির্দেশনা, একটি প্ল্যাটফর্ম এবং আতঙ্কে প্রস্তুত একটি দর্শকসমাজই যথেষ্ট।

এমনকি কৃত্রিম বুদ্ধিমত্তা-চালিত প্রতিরক্ষা–ব্যবস্থাগুলোও একই বৈপরীত্য বহন করছে। আয়রন বিম কিংবা আয়রন ডোমের উন্নত সংস্করণ থেকে স্পষ্ট যে কীভাবে মেশিন লার্নিং ও সেন্সর ফিউশন খুব কম সময়ে হুমকি চিহ্নিত ও প্রতিহত করতে পারে। কিন্তু এই সিস্টেমগুলোরও সীমাবদ্ধতা আছে। অতিরিক্ত আক্রমণ, ড্রোনের ঝাঁক কিংবা কম খরচের ব্যাপক আক্রমণ—একসময় এগুলোকে ছাপিয়ে যেতে পারে। অর্থাৎ কৃত্রিম বুদ্ধিমত্তা যুদ্ধের গতি বদলাতে পারে, কিন্তু বিশৃঙ্খলা দূর করতে পারে না; বরং অনেক ক্ষেত্রে তা বিশৃঙ্খলাকে আরও দ্রুত, আরও ঘন এবং আরও স্বয়ংক্রিয় করে তোলে।

৪.

এখানেই এসে দাঁড়ায় সবচেয়ে গুরুত্বপূর্ণ প্রশ্নটি। অ্যালগরিদম যখন ভুল করে, তখন দায় নেবে কে। এটি কোনো অতিরিক্ত বুদ্ধিবৃত্তিক প্রশ্ন নয়। এটি স্বয়ংক্রিয় যুদ্ধের কেন্দ্রীয় রাজনৈতিক প্রশ্ন। যদি এআই পরিচালিত একটি হামলায় বেসামরিক মানুষ মারা যায়, তাহলে দায় কার? সফটওয়্যার নির্মাতার, ডেটা স্থপতির, কমান্ডারের, প্রতিরক্ষামন্ত্রীর, ক্লাউড কোম্পানির, নাকি সেই আইনি উপদেষ্টার, যিনি পুরো প্রটোকলে সায় দিয়েছেন, নাকি শেষ পর্যন্ত দায় এতটাই ছড়িয়ে যায় যে কাউকেই আর পূর্ণভাবে জবাবদিহির মুখে দাঁড় করানো যায় না। এই দায় ছড়িয়ে যাওয়াটাই বর্তমান সময়কে এত বিপজ্জনক করে তুলেছে। ব্যবস্থা যত জটিল হয়, সংশ্লিষ্ট সবার জন্য তত সহজ হয়ে যায় নিজের দায়কে আংশিক বলে দেখানো। আর যখন দায় টুকরা টুকরা হয়ে যায়, তখন ন্যায়বিচার প্রায় অসম্ভব হয়ে পড়ে।

আমরা এমন এক অমানবিক সময়ে প্রবেশ করেছি, যেখানে সামরিক সুবিধা ক্রমে তাদের হাতে যাবে, যাদের অ্যালগরিদম দ্রুততর, ডেটা গভীরতর এবং সফটওয়্যার ও সামরিক শক্তির মধ্যে সংযোগ আরও মসৃণ। কিন্তু গতি কখনো প্রজ্ঞা নয়। আর দক্ষতা কখনো নৈতিকতার বিকল্প হতে পারে না। কৃত্রিম বুদ্ধিমত্তানির্ভর যুদ্ধের আসল বিপদ শুধু এই নয় যে যন্ত্র মানুষকে আরও দ্রুত হত্যা করতে সাহায্য করবে, আরও বড় বিপদ হলো এটি প্রতিষ্ঠানগুলোকে আরও সহজে দায় এড়িয়ে যেতে সাহায্য করবে।

এ কারণেই অপারেশন ‘এপিক ফিউরি’কে শুধু একটি সামরিক অভিযান হিসেবে পড়লে ভুল হবে; একে আমাদের সময়ের এক সভ্যতাগত সতর্কবার্তা হিসেবে দেখতে হবে। একবার যন্ত্র যখন ‘হত্যা-শৃঙ্খল’-এর ভেতরে ঢুকে পড়ে, তখন এটা শুধু প্রশ্ন থাকে না যে যুদ্ধ আরও আধুনিক হয়েছে কি না। আসল প্রশ্ন হয়ে দাঁড়ায়, মানুষ কি এখনো নিজের প্রয়োগ করা সহিংসতার জন্য জবাবদিহির মধ্যে থাকতে পারবে? যদি সেই প্রশ্নের উত্তর ক্রমে দুর্বল হয়ে যেতে থাকে, তাহলে তা গভীরভাবে নৈতিক এক অন্ধকার।

  • রিজওয়ান-উল-আলম সহযোগী অধ্যাপক ও চেয়ার, মিডিয়া, কমিউনিকেশন অ্যান্ড জার্নালিজম বিভাগ, নর্থ সাউথ বিশ্ববিদ্যালয়

  • মতামত লেখকের নিজস্ব