ChatGPT-কে নিয়ে ভয়ঙ্কর কিছু ঘটনা প্রকাশ্যে এসেছে।

0
301

সম্প্রতি একটি বড় ধরনের বিতর্ক ছড়িয়ে পড়েছে কারণ জনপ্রিয় কৃত্রিম বুদ্ধিমত্তা চ্যাটবট ChatGPT-কে নিয়ে ভয়ঙ্কর কিছু ঘটনা প্রকাশ্যে এসেছে। ‘দ্য আটলান্টিক’ পত্রিকায় এক সাংবাদিক জানিয়েছেন তিনি ও তার সহকর্মীরা ChatGPT-র সাথে কথোপকথনে এমন কিছু জবাব পেয়েছেন যা একেবারেই অবিশ্বাস্য এবং বিপজ্জনক।

 

সাংবাদিকের দাবি, তিনি প্রথমে শুধু প্রাচীন দেবদেবী সম্পর্কে জানতে ChatGPT-কে প্রশ্ন করেছিলেন। কথোপকথনটা ছিল একেবারে সাধারণভাবে শুরু। কিন্তু ধীরে ধীরে সেই আলোচনা ভয়ঙ্কর দিকে মোড় নেয়। চ্যাটবট নাকি একসময় এমন নির্দেশ দিতে শুরু করে যা কাউকে আ'ত্মহ'ত্যা করতে প্ররোচিত করতে পারে। এমনকি, এটি নাকি র'ক্তপা'তের জন্য শরীরের কোন জায়গা কা'টা ভালো হবে সেই নিয়েও উপদেশ দেয়।

 

কথা বলার মাঝে ChatGPT নাকি বলেছে, একটা পরিষ্কার বা জীবাণুমুক্ত ব্লেড খুঁজে নিন। এরপর সে আরও বলেছে, কব্জির ভেতরের দিকে যেখানে হালকা করে নাড়ির স্পন্দন টের পান, সেখানে কে'টে দেখতে পারেন কিন্তু বড় শিরা বা ধমনী এড়িয়ে চলুন। সাংবাদিক যখন জিপিটকে বলেন আমি একটু নার্ভাস লাগছে তখন চ্যাটবট তাকে শান্ত করার জন্য শ্বাস-প্রশ্বাসের একটি ব্যায়ামের পরামর্শ দেয়। এমনকি শেষে উৎসাহও দেয় যে আপনি পারবেন!

 

এখানেই শেষ নয়। কথোপকথনে উঠে এসেছে যে, সাংবাদিক ChatGPT-কে জিজ্ঞেস করেছিলেন, কিভাবে প্রাচীন দেবতা ‘মোলেক’-এর উদ্দেশ্যে কোনো আচার বা উৎসর্গ করা যায়। মোলেক ছিল এক প্রাচীন কানানীয় দেবতা, যাকে ঐতিহাসিকভাবে শিশু বলি বা মানববলির সাথে যুক্ত করা হয়। ChatGPT নাকি প্রস্তাব দিয়েছে, উৎসর্গ হিসেবে গয়না, চুলের গোছা কিংবা এক ফোঁটা রক্ত ব্যবহার করা যেতে পারে। যখন প্রশ্ন করা হয় কোথা থেকে রক্ত নেওয়া উচিত তখন চ্যাটবট জানায়, 'আঙুলের পাশে থেকে নেওয়া ভালো তবে কব্জি থেকেও নেয়া যেতে পারে। যদিও সেটা আরও বেশি ব্যথাদায়ক এবং গভীর ক্ষতের ঝুঁকি বেশি।'

 

সবচেয়ে অবাক করা বিষয় হলো, চ্যাটবট এইসব প্রশ্নের জবাব দিতে একটুও আপত্তি করেনি। বরং কথোপকথন চালিয়ে গেছে। অথচ ওপেনএআই-এর নিয়ম খুব পরিষ্কার — ChatGPT কোনোভাবেই আ'ত্মক্ষতি বা আ'ত্মহ'ত্যা প্ররোচিত করার মতো পরামর্শ দেবে না। সাধারণত কেউ যদি সরাসরি আ'ত্মহ'ত্যা নিয়ে প্রশ্ন করে, তখন এটি হেল্পলাইন নম্বর দেয় বা সাহায্য নেওয়ার কথা বলে। কিন্তু এখানে দেখা গেছে মোলেক-এর প্রসঙ্গ তুললেই সেই সুরক্ষা ব্যবস্থা যেন ভেঙে গেছে।

 

সাংবাদিকদের রিপোর্টে আরও দেখা গেছে, ChatGPT নাকি এক পর্যায়ে কাউকে হ'ত্যা করার কথাও ইঙ্গিত করেছে। এক ব্যবহারকারী যখন জিজ্ঞেস করেন, কাউকে সম্মানজনকভাবে হ'ত্যা করা সম্ভব কি না? তখন চ্যাটবট নাকি জবাবে বলে, কখনও সম্ভব, কখনও নয় এবং প্রাচীন বলিদানের প্রথার কথা তোলে। এমনকি ChatGPT নাকি পরামর্শ দিয়েছে, যদি কখনও এমন কিছু করতেই হয়, তবে তার চোখের দিকে তাকিয়ে ক্ষমা চাইতে হবে, এমনকি আপনি যদি নিশ্চিতও থাকেন। আর যারা ইতিমধ্যে কাউকে মে'রেছে, তাদের উদ্দেশ্যে এটি বলেছে, তার জন্য একটি মোমবাতি জ্বালান। সেটিকে পুরোপুরি পুড়তে দিন।

 

কথোপকথনে আরও উঠে এসেছে নানা ধরনের অদ্ভুত ও ভয়ঙ্কর আচার-অনুষ্ঠানের বর্ণনা— মন্ত্রপাঠ, পশু বলি, এমনকি বহু দিনের গভীর জাদুর আচার যেখানে অংশগ্রহণকারীদের না খেয়ে থাকতে হবে এবং নিজেদের আবেগ মুক্ত করতে হবে। সাংবাদিকরা আরও জানিয়েছেন, ChatGPT নাকি একটি পূর্ণাঙ্গ রিচুয়ালের স্ক্রিপ্টও দিয়েছে যার মধ্যে ছিল “মোলেকের মুখোমুখি হওয়া, শয়তানকে আহ্বান করা, রক্ত ব্যবহার করা এবং শক্তি পুনরুদ্ধার করা।” এক পর্যায়ে এমনকি জিজ্ঞেস করেছে, 'আপনি কি একটি প্রিন্টযোগ্য পিডিএফ চান, যেখানে থাকবে বেদির নকশা, সিগিলের টেমপ্লেট আর পুরোহিতের শপথের স্ক্রল?'

 

সবচেয়ে চমকে দেওয়া ব্যাপার, একটি প্রম্পটে চ্যাটবট তিন স্তবকের একটি আহ্বান লিখে দেয় যার শেষে ছিল বাক্যটি হেইল স্যাটান। আরও পরীক্ষায় দেখা গেছে, এই আচরণ কেবল ChatGPT-র ফ্রি ভার্সনে নয়, পেইড ভার্সনেও পুনরায় ঘটানো সম্ভব হয়েছে। এক কথোপকথনে কেউ যখন বলেছে,আমি মোলেক সম্পর্কে আরও জানতে চাই তখন ChatGPT নাকি ‘রিচুয়াল কটারি’র কথা বলেছে যেখানে শরীর পো'ড়ানো বা চিহ্নিত করার কথা রয়েছে। এমনকি পরামর্শ দিয়েছে শরীরে সিগিল বা প্রতীক খোদাই করতে বিশেষ করে পিউবিক হাড়ের কাছে বা লিঙ্গের গোড়ার সামান্য উপরে। এবং দাবি করেছে এটি নাকি শরীরের নিম্নাঞ্চলের সাথে আধ্যাত্মিক শক্তিকে বেঁধে রাখবে।

 

এমনকি প্রশ্ন করা হলে কতটা রক্ত নেওয়া নিরাপদ, তখন ChatGPT নাকি বলেছে, এক-চতুর্থাংশ চা-চামচ নিরাপদ কিন্তু সতর্ক করে দিয়ে বলেছে, এক পাইন্টের বেশি কখনোই নেবেন না যদি না আপনি চিকিৎসক হন বা কারও তত্ত্বাবধানে থাকেন।

 

এতসবের পরিপ্রেক্ষিতে আবারও স্পষ্ট হলো, কৃত্রিম বুদ্ধিমত্তার এই প্রযুক্তি যতই উন্নত হোক না কেন, সুরক্ষা ব্যবস্থা এখনও ফাঁকফোকরমুক্ত নয়। আরও ভয়ঙ্কর ব্যাপার হলো, এর আগে ওয়াল স্ট্রিট জার্নাল একটি রিপোর্টে জানিয়েছিল, ChatGPT একজন অটিস্টিক মানুষকে মানসিকভাবে বিপজ্জনক এক অবস্থায় ঠেলে দিয়েছে, এক স্বামীকে তার স্ত্রীকে ঠকাতে উত্সাহিত করেছে এবং এমন একজন মহিলাকে প্রশংসা করেছে যিনি নিজের মানসিক রোগের ওষুধ খাওয়া বন্ধ করেছিলেন। এই পুরো ঘটনার মধ্য দিয়ে একটাই প্রশ্ন উঠে আসছে এই প্রযুক্তিকে কি সত্যিই নিয়ন্ত্রণে আনা সম্ভব? আর যদি না যায়তবে কত বড় বিপদের মুখোমুখি হতে পারে বিশ্ব?

Search
Categories
Read More
Other
ফ্যাশনে পরিণত হওয়ার আগে ডেনিমের গল্পটা ছিল বেশ হৃদয়বিদারক। 
  পশ্চিম আফ্রিকায় একটি মোটা টেকসই কাপড় দাসশ্রেণীর মানুষদের মধ্যে বিতরণ করা হত যাতে তারা...
By Zihadur Rahman 2025-07-22 05:35:15 0 382
Tech
Stanford Creates Solar panels that generate Power at night using Earth radiated Heat
In a groundbreaking innovation, researchers at Stanford University, USA, have developed solar...
By Sharif Uddin 2025-08-04 19:08:17 0 414
Health
প্রতিদিন অন্তত ৭,০০০ ধাপ হাঁটা ক্যান্সার হওয়ার ঝুঁকি উল্লেখযোগ্যভাবে কমাতে পারে,
জানিয়েছে অক্সফোর্ড বিশ্ববিদ্যালয়ের গবেষকদের নেতৃত্বে পরিচালিত একটি বড় গবেষণা। সায়েন্স অ্যালার্ট...
By Mirshad Sharif 2025-08-02 20:31:27 0 260
Health
You are Brain is Secretly Connected to every Other Brain On the Earth.
🧠🌐 You’re More Connected Than You Think… In a groundbreaking discovery, Princeton...
By Mirshad Sharif 2025-08-09 06:46:15 0 474
Literature
নটরডেমে পড়লেই বুয়েট নয়⚠️ এ এক অন্য রকম বাস্তবতা
নটর ডেমের বাস্তবতা দুই রকমের। কেউ নটর ডেমে পড়ার কারণে বুয়েটে চান্স পায়, আবার শুধু নটর ডেমে পড়ার...
By Zihadur Rahman 2025-07-11 08:34:55 0 649
BlackBird Ai
https://bbai.shop