যোগাযোগের সক্ষমতা হারানো মানুষের মস্তিষ্কে কী চলছে, জানাবে কৃত্রিম বুদ্ধিমত্তা

কথা বলার সক্ষমতা হারিয়ে ফেলা রোগীদের মস্তিষ্কের কর্মকাণ্ডকে ভাষায় রূপান্তর করা সম্ভব হবে বলে আশা করছেন স্নায়ুবিজ্ঞানীরা
ছবি: এএফপি ফাইল ছবি

স্ট্রোক, পক্ষাঘাত কিংবা এ ধরনের জটিলতার কারণে কথা বলার সক্ষমতা হারিয়ে ফেলা রোগীদের মস্তিষ্কের কর্মকাণ্ডকে ভাষায় রূপান্তর করা সম্ভব হবে বলে আশা করছেন স্নায়ুবিজ্ঞানীরা। তাঁদের ধারণা, চ্যাটজিপিটির ক্ষেত্রে যে কৃত্রিম বুদ্ধিমত্তাসম্পন্ন (এআই) প্রযুক্তি ব্যবহার করা হয়েছে, সেই একই প্রযুক্তি ব্যবহার করে কাজটি করা সম্ভব হবে। সম্প্রতি যুক্তরাষ্ট্রের অস্টিনে টেক্সাস বিশ্ববিদ্যালয়ের একদল বিজ্ঞানী এমনই একটি উপায় উদ্ভাবনের দাবি করেছেন।

টেক্সাস বিশ্ববিদ্যালয়ের স্নায়ুবিজ্ঞান ও কম্পিউটারবিজ্ঞানের সহকারী অধ্যাপক আলেক্সান্ডার হাট সিএনএনকে বলেন, ‘আমরা মনের ভাষা পড়তে পারার মতো শব্দগুলো এ ক্ষেত্রে ব্যবহার করতে চাইছি না। আমরা মনে করি, যে জিনিসগুলো প্রকাশের সক্ষমতা নেই, সেগুলোকে চোখের সামনে ভাসিয়ে তোলার কাজ করবে এটি।’

হাট স্বেচ্ছায় এ গবেষণার নমুনা হিসেবে কাজ করেছেন। গবেষণার জন্য তিনি ২০ ঘণ্টার বেশি সময় ধরে এফএমআরআই মেশিনের ভেতর শুয়ে বিভিন্ন অডিও ক্লিপ শুনছিলেন। আর এফএমআরআই যন্ত্র তখন তাঁর মস্তিষ্কের ছবি তুলে যাচ্ছিল।

একটি কৃত্রিম বুদ্ধিমত্তা মডেল হাটের মস্তিষ্ক এবং তিনি যে অডিও শুনছিলেন, তা বিশ্লেষণ করেছে। অবশেষে শুধু হাটের মস্তিষ্কের ছবি দেখেই তিনি কী অডিও শুনছিলেন, সে সম্পর্কে বলতে পেরেছে এই কৃত্রিম বুদ্ধিমত্তা মডেল।

গবেষকেরা সান ফ্রান্সিসকোভিত্তিক উদ্যোগ ওপেনএআইয়ের প্রথম ভাষা মডেল জিপিটি-১-কে এ ক্ষেত্রে ব্যবহার করেছেন। বিভিন্ন বই ও ওয়েবসাইটের বিস্তৃত একটি ডেটাবেজ দিয়ে জিপিটি-১ তৈরি হয়েছে। এ ভাষা মডেলটি সব ডেটা বিশ্লেষণ করে বুঝতে পারে—কীভাবে বাক্যগুলো গঠন করা হয়েছে, বিশেষ করে মানুষ কীভাবে কথা বলে ও ভাবে।

মস্তিষ্ক বিশ্লেষণের জন্য আগেই প্রশিক্ষণ দেওয়া হয়েছিল

এ প্রযুক্তি যে সব মানুষের মস্তিষ্কের কর্মকাণ্ডের ব্যাপারে বলতে পারবে, তা নয়। নির্দিষ্ট মানুষদের মস্তিষ্ক নিয়ে এই এআই মডেলকে আগে থেকে প্রশিক্ষণ দিতে হবে।

শুরুতে হাট ও গবেষণায় অংশ নেওয়া অন্য স্বেচ্ছাসেবীদের মস্তিষ্ক বিশ্লেষণ করতে গবেষকেরা কৃত্রিম বুদ্ধিমত্তার ওই প্রযুক্তিকে প্রশিক্ষণ দিয়েছিলেন। ধীরে ধীরে হাট ও অন্যরা কী দেখছেন বা শুনছেন, তা তাঁদের মস্তিষ্কের তৎপরতার ছবি দেখেই বলে দেওয়ার মতো সক্ষমতা অর্জন করে এআই।

সিএনএনের প্রতিনিধি ডনি ও সুলিভানও কিছু সময়ের জন্য ওই গবেষণায় অংশ নিয়েছিলেন। সুলিভানের ভাষ্য অনুযায়ী, তিনি আধঘণ্টারও কম সময় এফএমআরআই মেশিনের ভেতর কাটিয়েছেন। এ সময় তিনি অডিও বই ‘দ্য উইজার্ড অব ও জেড’-এর অংশবিশেষ শুনছিলেন। তবে তিনি যা শুনছিলেন, তা কৃত্রিম বুদ্ধিমত্তা বুঝতে পারেনি। আর এ কথা আগে থেকেই ধারণা করা হচ্ছিল।

হাট একই অডিও শুনেছেন। তবে কৃত্রিম বুদ্ধিমত্তা মডেলটির আগে থেকে তাঁর মস্তিষ্ক সম্পর্কে প্রশিক্ষণ থাকায় তিনি কী শুনছিলেন, সে সম্পর্কে যথাযথভাবে ধারণা দিতে পেরেছে।

প্রযুক্তিটি এখনো একেবারে সূচনাপর্বে থাকলেও এটি অনেক সম্ভাবনাময়। আবার এর সীমাবদ্ধতাগুলো অনেকের জন্য স্বস্তির কারণও বটে। কারণ, মানুষের মনের ভাষা সহজেই বলে দেওয়ার মতো সক্ষমতা এখনো কৃত্রিম বুদ্ধিমত্তা অর্জন করতে পারেনি।

এ বিষয়ে ব্যাখ্যা করে হাট বলেন, যে মানুষেরা যোগাযোগে অক্ষম, তাঁদের সত্যিকার অর্থে সহযোগিতা করতে পারাটাই এ প্রযুক্তির সত্যিকারের সম্ভাবনা।

হাট ও টেক্সাস বিশ্ববিদ্যালয়ের গবেষক দলটির ধারণা, ভবিষ্যতে পক্ষাঘাতগ্রস্ত, স্ট্রোকে আক্রান্ত কিংবা যাঁদের মস্তিষ্ক কাজ করছে, কিন্তু কথা বলতে পারছেন না—এমন রোগীদের জন্য উদ্ভাবনমূলক এ প্রযুক্তি সহায়ক ভূমিকা রাখবে।