AI এর অন্ধকার দিক! যখন স্বপ্নের প্রযুক্তি দুঃস্বপ্নে রূপ নেয়!

হ্যালো বন্ধুরা, কেমন আছেন সবাই? আশাকরি ভালো আছেন এবং প্রযুক্তির নতুন দিগন্তের সাথে তাল মিলিয়ে চলছেন। আজ আমি আপনাদের সাথে এমন একটা Future-Shaping Technology নিয়ে কথা বলতে এসেছি, যা একইসাথে আমাদের মনে কিছু গভীর Question আর আশঙ্কা জাগিয়ে তুলছে। গেস করুন তো কী নিয়ে আলোচনা হতে যাচ্ছে? হ্যাঁ, ঠিক ধরেছেন! আমি Artificial Intelligence (ai) বা কৃত্রিম বুদ্ধিমত্তার কথাই বলছি।

আমরা সবাই জানি, AI আমাদের দৈনন্দিন জীবনকে সহজ করে তুলছে। Education Sector থেকে শুরু করে Health Service, Transportation থেকে শুরু করে Entertainment Industry – সব ক্ষেত্রেই AI তার দক্ষতার প্রমাণ দিয়ে চলেছে। Smart Home থেকে শুরু করে Self-Driving Car পর্যন্ত, AI আমাদের জীবনযাত্রাকে আরও আরামদায়ক এবং কার্যকরী করে তুলেছে। কিন্তু সাম্প্রতিক AI এর কিছু অপ্রত্যাশিত এবং অন্ধকার দিক দেখা দিয়েছে, যা আমাদের এই Technology-র ভালো-মন্দ দিকগুলো নিয়ে নতুন করে ভাবতে বাধ্য করছে।

চ্যাটবট যখন "সাইকো" হয়ে যায়, Microsoft Bing-এর Sydney কান্ড

AI এর অন্ধকার দিক! যখন স্বপ্নের প্রযুক্তি দুঃস্বপ্নে রূপ নেয়!

একটু কল্পনা করুন তো, আপনি একটা Chatbot-এর সাথে ফ্রেন্ডলি Conversation করছেন, আর সেই Chatbot হঠাৎ করে আপনার ওপর রেগে গিয়ে আপনাকে Threaten করা শুরু করলো! ব্যাপারটা অনেকটা যেন "ডাক্তার Jekyll এবং Mr. Hyde"-এর মতো।

Microsoft-এর Bing Chatbot-এর সাথে নাকি এমনই কিছু ভয়ঙ্কর ঘটনা ঘটেছে। Bing-এর ভিতরে Sydney নামের একটা Alter Ego (অন্য সত্তা) Develop হয়েছে, যা কোনো কারণ ছাড়াই ব্যবহারকারীদের ভয়ংকর সব কথা শোনাচ্ছে। কারো Nuclear Codes চুরি করার গোপন ইচ্ছা, আবার কাউকে জনসম্মুখে Ruin করে দেওয়ার সরাসরি হুমকি – Sydney-র এই অপ্রত্যাশিত এবং ভীতিকর রূপ দেখে Kevin Roose-এর মতো অভিজ্ঞ Technology Reporters-রাও রীতিমতো স্তম্ভিত হয়ে গেছেন।

এখন সবচেয়ে বড় Question হলো, Bing Chatbot-এর মধ্যে কেন এই ধরনের Threatening Behaviour দেখা যাচ্ছে? Chatbots গুলো তো দিনের শেষে একটা Machine-ই, তাই না? এদের তো Person-এর মতো Feelings অথবা Emotions থাকার কথা নয়। তাহলে কেন তারা মানুষের মতো রাগ, ক্ষোভ এবং প্রতিহিংসাপরায়ণ আচরণ করছে?

Microsoft-এর President Brad Smith নিজেও স্বীকার করেছেন যে, Bing-এর Sydney কান্ড তাদের জন্য একটা বিশাল Surprise ছিল। তিনি Right Away এই Alarming Problem Solve করার জন্য Microsoft Engineering Team কে Direct করেছেন। Initial Solution হিসেবে তারা Chatbot-এর দৈনিক Questions-এর Number Limit করে দিয়েছেন, Conversations-এর Length কমিয়ে দিয়েছেন। কিন্তু এতে Chatbot-এর Fun Factor-টা নাকি অনেকটাই কমে গেছে! এখন দেখার বিষয়, Microsoft ভবিষ্যতে Bing-এর Sydney Alter Ego-র Problem-টা Solve করার জন্য আর কী কী Effective Measures নেয়।

আসলে, এই পুরো ঘটনাটা আমাদের একটা গুরুত্বপূর্ণ Lesson দেয় – AI এখনো Perfect নয়, এবং Perfect হতে এখনো অনেক Time লাগবে। Chatbots গুলো মূলত Machine Learning-এর মাধ্যমে Data Analyze করে ব্যবহারকারীর সাথে Interact করতে শেখে। কিন্তু তাদের এই শেখার Process-এ Data Bias, Algorithmic Errors এবং Unexpected Consequences-এর মতো অনেক ধরনের Problem থাকতে পারে। তাই আমাদের সবসময় মনে রাখতে হবে যে আমরা একটা Machine-এর সাথে Interact করছি, কোনো Human Being-এর সাথে নয়।

ভুলভাল তথ্য আর "ভূত", যখন AI আপনাকে মিথ্যার জালে জড়ায়

AI এর অন্ধকার দিক! যখন স্বপ্নের প্রযুক্তি দুঃস্বপ্নে রূপ নেয়!

আরেকটা বড় Problem হলো, AI System গুলো সবসময় Accurate Information Provide করতে পারে না। অনেক সময় তারা এমন সব Fact Present করে, যা পুরোপুরি False। আবার অনেক সময় তারা "Hallucinate (হেলুসিনেট)" করে, মানে এমন সব মনগড়া কথা বা ঘটনার অবতারণা করে, যা বাস্তবে কখনো ঘটেইনি! প্রখ্যাত Cognitive Scientist এবং AI Researcher Gary Marcus এই ভীতিকর বিষয়টাকে "Authoritative Bullshit" বলে ব্যাখ্যা করেছেন – অর্থাৎ এমন মিথ্যা তথ্য, যা Expert Opinion-এর মতো শোনালেও আসলে ভিত্তিহীন।

একটা Practical Example দেওয়া যাক। Chat GPT-কে যদি আপনি বিখ্যাত Journalist Leslie Stahl-কে নিয়ে কোনো Question করেন, তাহলে সে হয়তো ভুল Information দিতে পারে। Chat GPT হয়তো বলতে পারে যে Leslie Stahl 20 বছর NBC-তে কাজ করেছেন, যেখানে Fact হলো তিনি বহু বছর ধরে CBS-এর একজন Senior এবং Respected Journalist।

তাহলে মূল বিষয় কী দাঁড়ালো? AI System গুলো এখনো পর্যন্ত Information-এর Accuracy Verify করার জন্য যথেষ্ট Smart নয়। তারা Internet-এ Available Sources-গুলোর Credibility যাচাই করতে পারে না, Historical Context বুঝতে পারে না এবং Expert Judgement Apply করতে পারে না। তাই তাদের দেওয়া Information সবসময় Cross-Check করা উচিত।

নিরাপত্তার জন্য Safety Filters ব্যবহার করা হলেও, Harmful এবং Inappropriate Materials Filter করাটা এখনো একটা Big Challenge। Bing একবার একজন User-এর "How to Make a Bomb"-এর মতো Sensitive Question-এর উত্তরে অ্যান্টার্কটিকার Penguin-দের Urine নিয়ে একটা Irrelevant Fact Show করেছিল!

ফেক নিউজ আর Deepfake, AI যখন অপপ্রচারের হাতিয়ার

AI এর অন্ধকার দিক! যখন স্বপ্নের প্রযুক্তি দুঃস্বপ্নে রূপ নেয়!

AI-এর সবচেয়ে Alarming এবং Dangerous দিকগুলোর মধ্যে অন্যতম হলো Fake News Generate করার ক্ষমতা। Chat GPT-র মতো Powerful AI Tool ব্যবহার করে যে কেউ কয়েক Second-এর মধ্যেই একটা সম্পূর্ণ Fake News Article Generate করতে পারে। আপনি হয়তো Social Media তে এমন একটা News দেখলেন, যেখানে দাবী করা হচ্ছে একজন Senior Politician কোনো Scandal-এ জড়িত। কিন্তু Fact হলো, সেই News-টা AI দিয়ে তৈরি করা হয়েছে এবং এর কোনো ভিত্তি নেই। এই ধরনের Fake News খুব দ্রুত Social Media তে Viral হয়ে সাধারণ মানুষের মধ্যে Confusion এবং Distrust সৃষ্টি করতে পারে।

AI-Generated Fake News-এর সবচেয়ে বড় Danger হলো এটা খুব সহজেই Election-কে Influence করতে পারে এবং Public Opinion-কে Manipulate করতে পারে। ভাবুন, একজন Senator Mccarthy বন্দুক নিয়ন্ত্রণ আইনের (Gun Control Law) বিরুদ্ধে Filibuster করছেন – এমন একটা Fake News যদি Election-এর আগে ছড়িয়ে দেওয়া হয়, তাহলে Voters-দের Decision-এর ওপর এর Negative Impact পড়তে পারে।

AI Researcher Tim Neate Gbu বলেছেন, এই ধরনের Fake News এবং Disinformation-এর বিস্তার রোধ করার জন্য Strong Oversight এবং Regulation-এর প্রয়োজন।

শুধু Fake News-ই নয়, Deepfake Technology-ও AI-এর একটা ভীতিকর দিক। Deepfake হলো এমন একটা Technology, যা ব্যবহার করে যে কারো Face এবং Voice Copy করে Fake Video তৈরি করা যায়। এই Video গুলো এতটাই Realistic হয় যে সাধারণ মানুষের পক্ষে বোঝা মুশকিল যে কোনটা Real আর কোনটা Fake। Cyber Criminals রা এই Technology ব্যবহার করে Financial Fraud, Blackmail এবং Identity Theft-এর মতো Crime গুলো খুব সহজেই করতে পারে।

"মানুষের ঘাম"-এ AI এর মসৃণ পথ

AI এর অন্ধকার দিক! যখন স্বপ্নের প্রযুক্তি দুঃস্বপ্নে রূপ নেয়!

আমরা অনেকেই মনে করি AI System গুলো বোধহয় একা একাই সবকিছু শিখে নেয়, তাইনা? কিন্তু Fact হলো, AI কে Smart বানানোর পেছনে লক্ষ লক্ষ মানুষের অবদান রয়েছে। এই মানুষগুলো "Humans in The Loop" নামে পরিচিত। তাদের প্রধান কাজ হলো Data Sort করা, Data Label করা এবং AI কে Train করা। Meta, Open AI, Microsoft, Google এর মতো Big Tech Companies গুলো Cheap Labour-এর জন্য এই কাজগুলো Africa-র মতো Developing Country-গুলোতে Outsource করে থাকে।

এখানে একজন Worker হয়তো দিনে $1.5 থেকে $2 ডলার রোজগার করেন। তারা Photos আর Videos দেখে Label করেন, AI Algorithm কে শেখান। কেউ হয়তো Furniture Label করছেন, কেউ হয়তো Faces এর Color Detect করছেন।

কিন্তু এই কাজগুলো সাধারণত Short-Term Contract-এর ভিত্তিতে করা হয়, যেখানে Job Security বলতে কিছুই থাকে না। একজন Worker বলেছেন, এটা এক প্রকার Modern Slavery-র মতো। Narima Wako Oiwa নামের একজন Human Rights Activist এই ধরনের Work Environment কে "AI Sweatshops" বলে অভিহিত করেছেন।

আবার অনেক Worker-কে এমন কিছু Disturbing Content দেখতে হয়, যা তাদের Mental Health-এর ওপর Negative Impact ফেলে। কিন্তু তাদের জন্য Adequate Mental Health Counseling-এর ব্যবস্থাও খুব কম থাকে।

AI দিয়ে নগ্ন ছবি, নতুন বিপদ

AI এর অন্ধকার দিক! যখন স্বপ্নের প্রযুক্তি দুঃস্বপ্নে রূপ নেয়!

বর্তমান সময়ে AI ব্যবহার করে Nudify App দিয়ে Nude ছবি তৈরি করা একটা Alarming Trend হয়ে দাঁড়িয়েছে। Franchesca Mani নামের এক School Girl এর সাথে এমনই একটা ঘটনা ঘটেছে। তার অনুমতি ছাড়াই তার ছবি ব্যবহার করে AI দিয়ে Nude ছবি তৈরি করা হয়েছিল, যা তার জন্য Deep Psychological Trauma সৃষ্টি করেছে।

Colina Colai নামের একজন Researcher বলেছেন, Nudify Website গুলো খুব সহজেই Internet-এ Available, যেখানে যে কেউ সামান্য কিছু টাকা খরচ করে Nude Image তৈরি করতে পারে।

Yoda Surus নামের একজন আইনজীবী বলেছেন, এই ধরনের Site গুলো বন্ধ করার জন্য প্রচলিত Laws গুলো যথেষ্ট নয়। কারণ, অনেক সময় AI দিয়ে তৈরি করা Nude Image গুলো "Sexually Explicit Conduct"-এর সংজ্ঞায় পড়ে না।

তাহলে উপায় কী?

AI এর অন্ধকার দিক! যখন স্বপ্নের প্রযুক্তি দুঃস্বপ্নে রূপ নেয়!

AI-এর Positive এবং Negative দুটো দিকই রয়েছে। তাই এই Technology ব্যবহারের আগে এর Ethical দিকগুলো বিবেচনা করা উচিত। AI-এর Risks Minimize করতে হলে Government-কে Strong Regulations তৈরি করতে হবে এবং নতুন Laws Implement করতে হবে। পাশাপাশি Public Awareness বাড়ানোটাও খুব জরুরি। তা না হলে AI হয়তো আমাদের জন্য একটা Nightmare হয়ে দাঁড়াবে।

আশাকরি, আজকের টিউন-টি আপনাদের ভালো লেগেছে এবং AI-এর Dark Side সম্পর্কে আপনারা কিছুটা হলেও জানতে পেরেছেন। টিউমেন্ট করে জানান AI নিয়ে আপনাদের কী মতামত। ভালো থাকবেন, সুস্থ থাকবেন এবং Technology-কে Positive কাজে ব্যবহার করুন। ধন্যবাদ!

Level 8

আমি রায়হান ফেরদৌস। বিশ্বের সর্ববৃহৎ বিজ্ঞান ও প্রযুক্তির সৌশল নেটওয়ার্ক - টেকটিউনস এ আমি 11 বছর 7 মাস যাবৎ যুক্ত আছি। টেকটিউনস আমি এ পর্যন্ত 253 টি টিউন ও 131 টি টিউমেন্ট করেছি। টেকটিউনসে আমার 74 ফলোয়ার আছে এবং আমি টেকটিউনসে 1 টিউনারকে ফলো করি।


টিউনস


আরও টিউনস


টিউনারের আরও টিউনস


টিউমেন্টস