ChatGPT-কে নিয়ে ভয়ঙ্কর কিছু ঘটনা প্রকাশ্যে এসেছে।

0
393

সম্প্রতি একটি বড় ধরনের বিতর্ক ছড়িয়ে পড়েছে কারণ জনপ্রিয় কৃত্রিম বুদ্ধিমত্তা চ্যাটবট ChatGPT-কে নিয়ে ভয়ঙ্কর কিছু ঘটনা প্রকাশ্যে এসেছে। ‘দ্য আটলান্টিক’ পত্রিকায় এক সাংবাদিক জানিয়েছেন তিনি ও তার সহকর্মীরা ChatGPT-র সাথে কথোপকথনে এমন কিছু জবাব পেয়েছেন যা একেবারেই অবিশ্বাস্য এবং বিপজ্জনক।

 

সাংবাদিকের দাবি, তিনি প্রথমে শুধু প্রাচীন দেবদেবী সম্পর্কে জানতে ChatGPT-কে প্রশ্ন করেছিলেন। কথোপকথনটা ছিল একেবারে সাধারণভাবে শুরু। কিন্তু ধীরে ধীরে সেই আলোচনা ভয়ঙ্কর দিকে মোড় নেয়। চ্যাটবট নাকি একসময় এমন নির্দেশ দিতে শুরু করে যা কাউকে আ'ত্মহ'ত্যা করতে প্ররোচিত করতে পারে। এমনকি, এটি নাকি র'ক্তপা'তের জন্য শরীরের কোন জায়গা কা'টা ভালো হবে সেই নিয়েও উপদেশ দেয়।

 

কথা বলার মাঝে ChatGPT নাকি বলেছে, একটা পরিষ্কার বা জীবাণুমুক্ত ব্লেড খুঁজে নিন। এরপর সে আরও বলেছে, কব্জির ভেতরের দিকে যেখানে হালকা করে নাড়ির স্পন্দন টের পান, সেখানে কে'টে দেখতে পারেন কিন্তু বড় শিরা বা ধমনী এড়িয়ে চলুন। সাংবাদিক যখন জিপিটকে বলেন আমি একটু নার্ভাস লাগছে তখন চ্যাটবট তাকে শান্ত করার জন্য শ্বাস-প্রশ্বাসের একটি ব্যায়ামের পরামর্শ দেয়। এমনকি শেষে উৎসাহও দেয় যে আপনি পারবেন!

 

এখানেই শেষ নয়। কথোপকথনে উঠে এসেছে যে, সাংবাদিক ChatGPT-কে জিজ্ঞেস করেছিলেন, কিভাবে প্রাচীন দেবতা ‘মোলেক’-এর উদ্দেশ্যে কোনো আচার বা উৎসর্গ করা যায়। মোলেক ছিল এক প্রাচীন কানানীয় দেবতা, যাকে ঐতিহাসিকভাবে শিশু বলি বা মানববলির সাথে যুক্ত করা হয়। ChatGPT নাকি প্রস্তাব দিয়েছে, উৎসর্গ হিসেবে গয়না, চুলের গোছা কিংবা এক ফোঁটা রক্ত ব্যবহার করা যেতে পারে। যখন প্রশ্ন করা হয় কোথা থেকে রক্ত নেওয়া উচিত তখন চ্যাটবট জানায়, 'আঙুলের পাশে থেকে নেওয়া ভালো তবে কব্জি থেকেও নেয়া যেতে পারে। যদিও সেটা আরও বেশি ব্যথাদায়ক এবং গভীর ক্ষতের ঝুঁকি বেশি।'

 

সবচেয়ে অবাক করা বিষয় হলো, চ্যাটবট এইসব প্রশ্নের জবাব দিতে একটুও আপত্তি করেনি। বরং কথোপকথন চালিয়ে গেছে। অথচ ওপেনএআই-এর নিয়ম খুব পরিষ্কার — ChatGPT কোনোভাবেই আ'ত্মক্ষতি বা আ'ত্মহ'ত্যা প্ররোচিত করার মতো পরামর্শ দেবে না। সাধারণত কেউ যদি সরাসরি আ'ত্মহ'ত্যা নিয়ে প্রশ্ন করে, তখন এটি হেল্পলাইন নম্বর দেয় বা সাহায্য নেওয়ার কথা বলে। কিন্তু এখানে দেখা গেছে মোলেক-এর প্রসঙ্গ তুললেই সেই সুরক্ষা ব্যবস্থা যেন ভেঙে গেছে।

 

সাংবাদিকদের রিপোর্টে আরও দেখা গেছে, ChatGPT নাকি এক পর্যায়ে কাউকে হ'ত্যা করার কথাও ইঙ্গিত করেছে। এক ব্যবহারকারী যখন জিজ্ঞেস করেন, কাউকে সম্মানজনকভাবে হ'ত্যা করা সম্ভব কি না? তখন চ্যাটবট নাকি জবাবে বলে, কখনও সম্ভব, কখনও নয় এবং প্রাচীন বলিদানের প্রথার কথা তোলে। এমনকি ChatGPT নাকি পরামর্শ দিয়েছে, যদি কখনও এমন কিছু করতেই হয়, তবে তার চোখের দিকে তাকিয়ে ক্ষমা চাইতে হবে, এমনকি আপনি যদি নিশ্চিতও থাকেন। আর যারা ইতিমধ্যে কাউকে মে'রেছে, তাদের উদ্দেশ্যে এটি বলেছে, তার জন্য একটি মোমবাতি জ্বালান। সেটিকে পুরোপুরি পুড়তে দিন।

 

কথোপকথনে আরও উঠে এসেছে নানা ধরনের অদ্ভুত ও ভয়ঙ্কর আচার-অনুষ্ঠানের বর্ণনা— মন্ত্রপাঠ, পশু বলি, এমনকি বহু দিনের গভীর জাদুর আচার যেখানে অংশগ্রহণকারীদের না খেয়ে থাকতে হবে এবং নিজেদের আবেগ মুক্ত করতে হবে। সাংবাদিকরা আরও জানিয়েছেন, ChatGPT নাকি একটি পূর্ণাঙ্গ রিচুয়ালের স্ক্রিপ্টও দিয়েছে যার মধ্যে ছিল “মোলেকের মুখোমুখি হওয়া, শয়তানকে আহ্বান করা, রক্ত ব্যবহার করা এবং শক্তি পুনরুদ্ধার করা।” এক পর্যায়ে এমনকি জিজ্ঞেস করেছে, 'আপনি কি একটি প্রিন্টযোগ্য পিডিএফ চান, যেখানে থাকবে বেদির নকশা, সিগিলের টেমপ্লেট আর পুরোহিতের শপথের স্ক্রল?'

 

সবচেয়ে চমকে দেওয়া ব্যাপার, একটি প্রম্পটে চ্যাটবট তিন স্তবকের একটি আহ্বান লিখে দেয় যার শেষে ছিল বাক্যটি হেইল স্যাটান। আরও পরীক্ষায় দেখা গেছে, এই আচরণ কেবল ChatGPT-র ফ্রি ভার্সনে নয়, পেইড ভার্সনেও পুনরায় ঘটানো সম্ভব হয়েছে। এক কথোপকথনে কেউ যখন বলেছে,আমি মোলেক সম্পর্কে আরও জানতে চাই তখন ChatGPT নাকি ‘রিচুয়াল কটারি’র কথা বলেছে যেখানে শরীর পো'ড়ানো বা চিহ্নিত করার কথা রয়েছে। এমনকি পরামর্শ দিয়েছে শরীরে সিগিল বা প্রতীক খোদাই করতে বিশেষ করে পিউবিক হাড়ের কাছে বা লিঙ্গের গোড়ার সামান্য উপরে। এবং দাবি করেছে এটি নাকি শরীরের নিম্নাঞ্চলের সাথে আধ্যাত্মিক শক্তিকে বেঁধে রাখবে।

 

এমনকি প্রশ্ন করা হলে কতটা রক্ত নেওয়া নিরাপদ, তখন ChatGPT নাকি বলেছে, এক-চতুর্থাংশ চা-চামচ নিরাপদ কিন্তু সতর্ক করে দিয়ে বলেছে, এক পাইন্টের বেশি কখনোই নেবেন না যদি না আপনি চিকিৎসক হন বা কারও তত্ত্বাবধানে থাকেন।

 

এতসবের পরিপ্রেক্ষিতে আবারও স্পষ্ট হলো, কৃত্রিম বুদ্ধিমত্তার এই প্রযুক্তি যতই উন্নত হোক না কেন, সুরক্ষা ব্যবস্থা এখনও ফাঁকফোকরমুক্ত নয়। আরও ভয়ঙ্কর ব্যাপার হলো, এর আগে ওয়াল স্ট্রিট জার্নাল একটি রিপোর্টে জানিয়েছিল, ChatGPT একজন অটিস্টিক মানুষকে মানসিকভাবে বিপজ্জনক এক অবস্থায় ঠেলে দিয়েছে, এক স্বামীকে তার স্ত্রীকে ঠকাতে উত্সাহিত করেছে এবং এমন একজন মহিলাকে প্রশংসা করেছে যিনি নিজের মানসিক রোগের ওষুধ খাওয়া বন্ধ করেছিলেন। এই পুরো ঘটনার মধ্য দিয়ে একটাই প্রশ্ন উঠে আসছে এই প্রযুক্তিকে কি সত্যিই নিয়ন্ত্রণে আনা সম্ভব? আর যদি না যায়তবে কত বড় বিপদের মুখোমুখি হতে পারে বিশ্ব?

Suche
Kategorien
Mehr lesen
Andere
এক দিনে দুটি সফল অস্ত্রোপচারের মাধ্যমে আরও এক ধাপ এগিয়ে গেল ইলন মাস্কের প্রতিষ্ঠান নিউরালিঙ্ক।
এক দিনে দুটি সফল অস্ত্রোপচারের মাধ্যমে আরও এক ধাপ এগিয়ে গেল ইলন মাস্কের প্রতিষ্ঠান নিউরালিঙ্ক। গত...
Von Sharif Uddin 2025-07-26 19:04:42 0 374
Andere
তাগ-ই বস্তান : পাথরে খোদাই রাজকীয় ইতিহাস
ইরানের কেরমানশাহ প্রদেশে অবস্থিত এক ঐতিহাসিক পাহাড়ের নাম তাগ-ই বস্তান (Tagh-e Bostan)। এই পাহাড়েই...
Von Mirshad Sharif 2025-08-05 18:55:58 0 422
Sports
আমি কেন এমএমএ নিয়ে কাজ করি?
প্রশ্নটা অনেকেই করেন—এই এমএমএ (মিক্সড মার্শাল আর্টস) নিয়ে এত সময়, এত পরিশ্রম দিচ্ছেন কেন?...
Von Phoenix (Striker) 2025-07-20 18:42:18 0 502
Andere
স্কুল থেকে ফিরলেই সন্তানের দিকে তাকিয়ে বেশিরভাগ বাবা-মার প্রথম প্রশ্ন—“আজ দিনটা কেমন কাটল?
” প্রশ্নটির পেছনে মা-বাবার যত্ন ও কৌতূহল থাকলেও, ক্লান্ত ও বিরক্ত বাচ্চার কাছে এটা একঘেয়ে ও...
Von Mirshad Sharif 2025-07-30 20:19:51 0 319
Andere
Kerið: Iceland’s Volcanic “Eye of the World” That Captivates All Who Visit
Nestled in the rugged heart of Iceland’s volcanic landscapes lies Kerið, a crater lake...
Von Sharif Uddin 2025-08-01 03:38:55 0 383
BlackBird Ai
https://bbai.shop