ডিপফেক টেকনোলজি: মিথ্যাকে সত্য বানিয়ে দেওয়া এক অভিশপ্ত প্রযুক্তি
একটি দৃশ্য কল্পনা করুন। মার্কিন যুক্তরাষ্ট্রের প্রেসিডেন্ট হুট করে একটি সংবাদ সম্মেলন ডেকে বসলেন। সেখানে তিনি কৃষ্ণাঙ্গদের কটাক্ষ করে খুবই খারাপ একটা কথা বললেন। টিভি ও ইন্টারনেটের মাধ্যমে দ্রুত তা বিশ্বব্যাপী ছড়িয়ে পড়লো। এমন বর্ণবাদী মন্তব্যের জন্য সমগ্র আমেরিকার জনগণ ক্ষোভে ফেটে পড়েছে। তারা অবিলম্বে প্রেসিডেন্টের পদত্যাগ চায়। সাধারণ জনগণ রাস্তায় নেমে পড়েছে। জায়গায় জায়গায় পুলিশ মোতায়েন করা হয়েছে। রাষ্ট্রীয় সকল কর্মকাণ্ড স্থবির হয়ে রয়েছে।
অপরদিকে হোয়াইট হাউসে থাকা সকল কর্মচারীর মাথায় হাত। এমন কোনো সংবাদ সম্মেলন তো ডাকাই হয়নি। তাদের প্রেসিডেন্টও তো কোথাও এমন বক্তব্য দেননি। কিন্তু যে ভিডিওটি চারিদিকে ছড়িয়ে পড়েছে তা দেখেই বোঝা যাচ্ছে এটি প্রেসিডেন্ট নিজেই। একই চেহারা, একই গলার স্বর। এমনকি ভিডিওর ব্যাকগ্রাউন্ডেও অবিকল প্রেসিডেন্টের অফিস। প্রযুক্তি বিশ্লেষকরা অনেক চেষ্টা করেও এই ভিডিও যে নকল তা প্রমাণ করতে পারছে না। অপরদিকে বাইরে পরিস্থিতি ক্রমাগত খারাপ হতে চলেছে।
এবার আরেকটি দৃশ্য কল্পনা করুন। অন্যান্য দিনগুলোর মতোই স্বাভাবিকভাবে আপনার দিন কাটছিল। হঠাৎ কাছের একজন মানুষ ইন্টারনেটে আপনাকে একটি ভিডিও পাঠায়। ভিডিওটি চালু করার পর আপনি রীতিমতো আকাশ থেকে পড়লেন। এটি একটি অশ্লীল ভিডিও এবং ভিডিওর মানুষটি আপনি নিজেই। আপনার কাছে এটা একেবারে স্পষ্ট যে, এমন কোনো ভিডিওতেই আপনি নেই। কিন্তু ভিডিওর মানুষটি দেখতে অবিকল আপনার মতো। চোখ, নাক, হাসি, গলার স্বর হুবহু এক। এখন মানুষ কি আপনার কথা বিশ্বাস করতে চাইবে? আপনার আপনজনেরাই বা কীভাবে এর ব্যাখা করবে? খুব দ্রুত এই আপত্তিকর ভিডিও চারিদিকে ছড়িয়ে পড়ছে। পরিবার ও সমাজে আপনি মুখ দেখাতে পারছেন না। অথচ এখানে আপনার কোনো দোষই নেই।
ফটোশপ ও অন্যান্য কিছু সফটওয়্যার আসার পর থেকে ইচ্ছামতো ও নিখুঁতভাবে নকল ছবি তৈরি করা যায়। তবে নকল ভিডিও বানানো অতটা সহজ ছিল না। ছবিতে একজনের মাথা কেটে অন্য জায়গায় বসানো যতটা সহজ, ভিডিওর ক্ষেত্রে তা ততটা সহজ নয়। কারণ মানুষের গলার আওয়াজ, অভিব্যক্তি, তাকানোর ধরন ইত্যাদি হুবহু নকল করা যেত না। এটি অসম্ভব ছিল একটি নতুন প্রযুক্তি আসার আগ পর্যন্ত।
নকল ভিডিও বানানোর এই প্রযুক্তির নাম ডিপফেক বা ডিপফেক টেকনোলজি। এই প্রযুক্তি ব্যবহার করে যেকোনো মানুষের হুবহু নকল ভিডিও বানানো সম্ভব। মেশিন লার্নিংয়ের প্রয়োগ ঘটানোর মাধ্যমে দিন দিন এই অভিশপ্ত প্রযুক্তিটি আরো নিখুঁতভাবে নকল ভিডিও তৈরি করতে সক্ষম হচ্ছে।
ডিপফেক আসলে কীভাবে কাজ করে?
ডিপফেক বলতে নকল ভিডিও বা অডিওকে বোঝায়। আপাতদৃষ্টিতে তা দেখতে আসল মনে হলেও তা মোটেই আসল নয়। ডিপফেক নামটির মাঝেই এর সংজ্ঞা নিহিত রয়েছে। ডিপ মানে গভীর এবং ফেক মানে নকল। অর্থাৎ ডিপফেক বলতে এমন কিছুকে বোঝায় যা খুবই গভীরভাবে নকল করা হয়েছে। মেশিন লার্নিং হলো ডিপফেক ভিডিও বানানোর প্রধান অস্ত্র। মেশিন লার্নিংয়ের একটি কৌশলের নাম "জেনারেল অ্যাডভারসেরিয়াল নেটওয়ার্ক" (GAN)। এর মাধ্যমে প্রথমে একজন ব্যক্তির বিভিন্ন অভিব্যক্তির হাজারখানেক ছবি সংগ্রহ করা হয়। এরপর সেই ছবিগুলো মেশিন লার্নিংয়ের মাধ্যমে প্রক্রিয়া করে তার মুখের সব ধরনের অভিব্যক্তির একটি সিমুলেশন তৈরি করা যায়। কৃত্রিম বুদ্ধিমত্তার উত্তরোত্তর উন্নতির ফলে ব্যক্তির গলার আওয়াজও হুবুহু নকল করা সম্ভব। এসব ভিডিও ও অডিও নানাভাবে প্রক্রিয়া করে এমন একটি নকল ভিডিও তৈরি করা হয় যা খালি চোখে শনাক্ত করা অনেক কঠিন।
আমাদের দৃষ্টিসীমার পর্যায়কাল ০.১ সেকেন্ড। অর্থাৎ ১০০ মিলি সেকেন্ডের কম সময়ে ঘটে যাওয়া কোনো দৃশ্য আমাদের চোখে বাঁধবে না। কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি করা ভিডিওগুলোতে নানা ধরনের রূপান্তর ঘটে এর থেকেও কম সময়ে। তাই খালি চোখের পক্ষে আসল-নকলের যাচাই করা সম্ভব হয় না।
ডিপফেক টেকনোলজি দ্বারা সবচেয়ে বেশি ক্ষতিগ্রস্ত হয় রাজনীতিবিদ ও বিভিন্ন সেলিব্রিটিরা। এর কারণ তাদের নানা ভিডিও, ছবি ইত্যাদি ইন্টারনেটে বেশি সহজলভ্য। একজন অভিনেতার চেহারার বিভিন্ন ধরনের অভিব্যক্তি ইন্টারনেটে পাওয়া সবচেয়ে সহজ। তাই তারাই প্রথমে এই ক্ষতিকর প্রযুক্তির শিকার হয়।
ডিপফেক কতটা বিপজ্জনক?
আধুনিক যুগ ইন্টারনেটের যুগ। আরো স্পষ্ট করে বলতে গেলে সোশ্যাল মিডিয়ার যুগ। একটা খবর সোশ্যাল মিডিয়ার মাধ্যমে যত দ্রুত মানুষের কাছে পৌঁছায়, অন্য কোনো মাধ্যম দ্বারা তা সম্ভব না। তাই বিভ্রান্তি ছড়ানোর জন্য এটি একটি উৎকৃষ্ট জায়গা। কোনো রকম সত্যতা যাচাই করা ছাড়াই খবর দ্রুত ছড়িয়ে পড়ে। গুজব সংবাদ দ্রুত মানুষের মুখে মুখে পৌঁছে যায়। মানুষের চিন্তাধারাকে নিয়ন্ত্রণ করার এর থেকে সহজ পন্থা আর নেই। আর এখানেই ডিপফেক টেকনোলজির জয়জয়কার।
কোন মন্তব্য নেই