কৃত্রিম বুদ্ধিমত্তাসম্পন্ন ডিপফেক প্রযুক্তি তারকাদের কাছে ক্রমশ এক অভিশাপের নাম হয়ে উঠছে। কেননা এই প্রযুক্তির অপব্যবহার করে সেলিব্রিটিদের ভুয়া পর্নো বা আপত্তিকর ভিডিও তৈরি করা হচ্ছে।
ডিপফেক প্রযুক্তির সহায়তায় একজন ব্যক্তির এমন কিছু ছবি, ভিডিও বা অডিও কন্টেন্ট তৈরি করা সম্ভব যা তিনি নিজে বলেননি বা করেননি। ধরুন হঠাৎ করেই আপনার কাছের কোনো মানুষ আপনাকে একটি ভিডিও দিল। ভিডিও চালু করে আপনি অবাক। অশ্লীল এক ভিডিওতে আপনাকে দেখা যাচ্ছে; চেহারা, ভয়েস, এক্সপ্রেশন অবিকল আপনার। আপনি জানেন ভিডিওর ব্যক্তি আপনি নন। কিন্তু ভিডিওটি এতটাই বাস্তব যে আপনার নিজেরও বিশ্বাস করতে হবে ভিডিওর ব্যক্তি আপনি নন। কিন্তু কী করে এটা সম্ভব? এটা সম্ভব ডিপ ফেক টেকনোলজি দিয়ে।
কিছুদিন আগেই ডিপফেকের মাধ্যমে ভারতীয় জনপ্রিয় অভিনেত্রী রাশমিকা মান্দানার একটি অশ্লিল ভিডিও তৈরি করে সোশ্যাল মিডিয়ায় ছেড়ে দেওয়া হয়। এরপর থেকে ফের আলোচনায় এই প্রযুক্তি।
ডিপফেকের অপব্যবহার বেড়ে যাওয়ায় বিশ্বের বিভিন্ন দেশে গায়ক-গায়িকা, অভিনেতা-অভিনেত্রী, ইনফ্লুয়েন্সার, মডেল, ক্রীড়াবিদসহ অনেকেই হেনস্তার শিকার হচ্ছেন। এক গবেষণায় দেখা গেছে, ডিপফেক ভিডিও’র ৯৬ শতাংশ পর্নোগ্রাফি সম্পর্কিত। ডেইজি রিডলি, জেনিফার লরেন্স, এমা ওয়াটসন এবং গ্যাল গ্যাডট এর মতো বড় বড় তারকার ডিপফেক পর্নোগ্রাফি ভিডিও ভাইরাল হযেছিল।
আরও পড়ুন: ডিপফেক ভিডিও কিভাবে চিনবেন?
ডিপফেক দ্বারা আক্রান্তদের পরবর্তী গ্রুপ হলেন বড় বড় রাজনীতিবিদরা। বেশ কয়েকবছর আগেই আমেরিকার সাবেক প্রেসিডেন্ট বারাক ওবামা কর্তৃক প্রেসিডেন্ট ট্রাম্পকে অপমান করার ডিপফেক ভিডিও ভাইরাল হয়েছিল। অন্য একটি ডিপফেক ভিডিওতে রাজনীতিবিদ ন্যান্সি পেলোসির বক্তৃতা এমনভাবে ডিপফেক করা হয়েছিল যাতে দর্শকরা ভাবেন যে তিনি মাতাল ছিলেন। আবার অন্য একটি ডিপফেক ভিডিওতে আমেরিকার প্রেসিডেন্ট ট্রাম্পকে প্যারিস জলবায়ু চুক্তিতে সদস্যপদ নিয়ে বেলজিয়ামকে উপহাস করতে দেখা যায়। আরেকটি ডিপফেক ভিডিওতে ইউক্রেনের প্রেসিডেন্ট ভলোদিমির জেলেনস্কিকে সেনাদের আত্মসমর্পণ করার কথা বলতে দেখা যায়। ফেসবুকের প্রতিষ্ঠাতা মার্ক জাকারবার্গেরও ডিপফেক ভিডিও ভাইরাল হয়েছিল, যেখানে দেখানো হয় জাকারবার্গ ডাটা চুরি নিয়ে গর্ববোধ করছেন।
২০১৭ সালে সর্বপ্রথম ডিপফেক টেকনোলজি প্রচারণা পায়। ডিপফেক নামটির মধ্যেই এর সংজ্ঞা রয়েছে। ডিপ শব্দটি এসেছে ‘ডিপ লার্নিং’ অর্থাৎ গভীরভাবে শিক্ষা নেওয়া এবং অন্যদিকে ‘ফেক’ অর্থাৎ নকল বা ভুয়া এই দুই শব্দের সংমিশ্রণ থেকে। অর্থাৎ, ডিপফেক বলতে গভীরভাবে নকল করা হয়েছে এমন কিছুকে বোঝায়।
ফটোশপ আর ডিপফেক দুটো ভিন্ন প্রযুক্তি। ডিপফেক ভিডিও বা ছবি তৈরির ক্ষেত্রে অ্যাডভান্সড ডিপ লার্নিং অ্যালগরিদমের সাহায্য নেওয়া হয়। কৃত্রিম বুদ্ধিমত্তার সাহায্যে ডিপফেক ভিডিও কিংবা ইমেজের ক্ষেত্রে এমন জিনিস তৈরি করা হয়, যা দেখলে বিশ্বাসযোগ্য বলে মনে হবে।
এই প্রযুক্তি যে কেবল নকল ভিডিও তৈরি করতে পারে তা নয়। এটি মানুষের ভয়েস মডেলও তৈরি করতে পারে। এর মানে এই যে একজন রাজনীতিবিদের শব্দ বা কণ্ঠস্বর নকল করে কোনো আপত্তিকর বিবৃতি দেওয়ার জন্য কোনো ছদ্মবেশীর প্রয়োজন হয় না। পরিবর্তে তাদের ভয়েস বা কণ্ঠস্বর নকল করতে কৃত্রিম বুদ্ধিমত্তাকে প্রশিক্ষিত করা যায়।
বেশ কয়েকবছর আগেই আমেরিকার সাবেক প্রেসিডেন্ট বারাক ওবামা কর্তৃক প্রেসিডেন্ট ট্রাম্পকে অপমান করার ডিপফেক ভিডিও ভাইরাল হয়েছিল। অন্য একটি ডিপফেক ভিডিওতে রাজনীতিবিদ ন্যান্সি পেলোসির বক্তৃতা এমনভাবে ডিপফেক করা হয়েছিল যাতে দর্শকরা ভাবেন যে তিনি মাতাল ছিলেন। আবার অন্য একটি ডিপফেক ভিডিওতে আমেরিকার প্রেসিডেন্ট ট্রাম্পকে প্যারিস জলবায়ু চুক্তিতে সদস্যপদ নিয়ে বেলজিয়ামকে উপহাস করতে দেখা যায়। আরেকটি ডিপফেক ভিডিওতে ইউক্রেনের প্রেসিডেন্ট ভলোদিমির জেলেনস্কিকে সেনাদের আত্মসমর্পণ করার কথা বলতে দেখা যায়।
ডিপফেক প্রযুক্তি অসৎ কাজে বেশি ব্যবহৃত হলেও এই প্রযুক্তির বেশ কিছু ভালো দিক রয়েছে। বিশেষত বিনোদনশিল্পে এ প্রযুক্তির ব্যবহার অনেক বেশি সহায়কের ভূমিকা পালন করে। যেমন ডাবিংয়ের মান উন্নত করতে, মৃত অভিনেতার অসমাপ্ত কাজ সমাপ্ত করতে কিংবা জাদুঘর বা গ্যালারিকে প্রাণবন্ত করতে এর জুড়ি মেলা ভার।
‘স্টার ওয়্যারস’ খ্যাত অভিনেত্রী ক্যারি ফিশার। ২০১৬ সালে এই চলচ্চিত্র সিরিজের একটি প্রিকুয়েল ‘রৌগ ওয়ান’ মুক্তি পায়। এই সিনেমার এক দৃশ্যে সিরিজের জনপ্রিয় চরিত্র প্রিন্সেস লিয়ার যুবতী সময়ের কিছু দৃশ্য প্রয়োজন ছিল। কিন্তু ক্যারি ফিশার তখন ষাট বছরে পা দিয়েছেন। ফলে তার কম বয়সী সংস্করণ তৈরি করতে ডিপফেক প্রযুক্তির আশ্রয় নেওয়া হয়।
ডিপফেক প্রযুক্তি তৈরি করার পেছনে মূল নির্মাতাদের কোনো খারাপ উদ্দেশ্য না থাকা সত্ত্বেও, এটি মানুষকে খারাপ উদ্দেশ্যে ব্যবহার থেকে বিরত রাখতে পারেনি।
খালি চোখে ডিপফেক ভিডিও শনাক্ত করা সম্ভব না হলে প্রযুক্তির সহায়তায় সেটি সম্ভব। এ জন্য বিভিন্ন টুল রয়েছে। ছবির জন্য ফটো মেটাডেটা বা ভিডিও মেটাডেটা টুলস কিংবা সাধারণ ভিডিওর জন্য ইনভিড বা ইউটিউব ডেটা ভিউয়ার ব্যবহার করে যাচাই করা যায়। তা ছাড়া ফেস ফরেনসিকস টুলও ব্যবহার করা যায় ডিপফেক প্রযুক্তিতে তৈরি ভিডিও শনাক্ত করতে। এ ছাড়া বায়োমেট্রিকস ব্যবহার করেও এ প্রযুক্তির ভিডিও যাচাই করা যায়।
সাইবার বিশেষজ্ঞদের মতে, ডিপফেকের ফলাফল খুবই ভয়ংকর হয়েছে এবং সামনে আরও ভয়ংকর হবে, বিশেষ করে গণ্যমান্য ব্যক্তি এবং সেলিব্রিটিদের জন্য এটি বিপর্যয়কর পরিণতি নিয়ে আসবে। ডিপফেক এর প্রভাবে শুধু ক্যারিয়ার নয়, জীবন ও নষ্ট করা সম্ভব, কিছুক্ষেত্রে সম্পূর্ণরূপে ধ্বংস হয়েও যেতে পারে। এমনকি আন্তর্জাতিক কোনো ডিপফেক ঘটনা যুদ্ধ শুরু করার জন্য বিশ্ব নেতাদের নকল ভিডিও ব্যবহার করতে পারে। এই প্রযুক্তি দিয়ে যেমন একজন ব্যক্তির খ্যাতি ক্ষুন্ন করা সম্ভব, তেমনি এই প্রযুক্তির মাধ্যমে কাউকে দিয়ে এমন কিছু বলাতে বা করাতে পারে যার ফলাফল বিশ্বব্যাপী হতে পারে।
তথ্যসূত্র: মিডিয়াম