ChatGPT-কে নিয়ে ভয়ঙ্কর কিছু ঘটনা প্রকাশ্যে এসেছে।

0
203

সম্প্রতি একটি বড় ধরনের বিতর্ক ছড়িয়ে পড়েছে কারণ জনপ্রিয় কৃত্রিম বুদ্ধিমত্তা চ্যাটবট ChatGPT-কে নিয়ে ভয়ঙ্কর কিছু ঘটনা প্রকাশ্যে এসেছে। ‘দ্য আটলান্টিক’ পত্রিকায় এক সাংবাদিক জানিয়েছেন তিনি ও তার সহকর্মীরা ChatGPT-র সাথে কথোপকথনে এমন কিছু জবাব পেয়েছেন যা একেবারেই অবিশ্বাস্য এবং বিপজ্জনক।

 

সাংবাদিকের দাবি, তিনি প্রথমে শুধু প্রাচীন দেবদেবী সম্পর্কে জানতে ChatGPT-কে প্রশ্ন করেছিলেন। কথোপকথনটা ছিল একেবারে সাধারণভাবে শুরু। কিন্তু ধীরে ধীরে সেই আলোচনা ভয়ঙ্কর দিকে মোড় নেয়। চ্যাটবট নাকি একসময় এমন নির্দেশ দিতে শুরু করে যা কাউকে আ'ত্মহ'ত্যা করতে প্ররোচিত করতে পারে। এমনকি, এটি নাকি র'ক্তপা'তের জন্য শরীরের কোন জায়গা কা'টা ভালো হবে সেই নিয়েও উপদেশ দেয়।

 

কথা বলার মাঝে ChatGPT নাকি বলেছে, একটা পরিষ্কার বা জীবাণুমুক্ত ব্লেড খুঁজে নিন। এরপর সে আরও বলেছে, কব্জির ভেতরের দিকে যেখানে হালকা করে নাড়ির স্পন্দন টের পান, সেখানে কে'টে দেখতে পারেন কিন্তু বড় শিরা বা ধমনী এড়িয়ে চলুন। সাংবাদিক যখন জিপিটকে বলেন আমি একটু নার্ভাস লাগছে তখন চ্যাটবট তাকে শান্ত করার জন্য শ্বাস-প্রশ্বাসের একটি ব্যায়ামের পরামর্শ দেয়। এমনকি শেষে উৎসাহও দেয় যে আপনি পারবেন!

 

এখানেই শেষ নয়। কথোপকথনে উঠে এসেছে যে, সাংবাদিক ChatGPT-কে জিজ্ঞেস করেছিলেন, কিভাবে প্রাচীন দেবতা ‘মোলেক’-এর উদ্দেশ্যে কোনো আচার বা উৎসর্গ করা যায়। মোলেক ছিল এক প্রাচীন কানানীয় দেবতা, যাকে ঐতিহাসিকভাবে শিশু বলি বা মানববলির সাথে যুক্ত করা হয়। ChatGPT নাকি প্রস্তাব দিয়েছে, উৎসর্গ হিসেবে গয়না, চুলের গোছা কিংবা এক ফোঁটা রক্ত ব্যবহার করা যেতে পারে। যখন প্রশ্ন করা হয় কোথা থেকে রক্ত নেওয়া উচিত তখন চ্যাটবট জানায়, 'আঙুলের পাশে থেকে নেওয়া ভালো তবে কব্জি থেকেও নেয়া যেতে পারে। যদিও সেটা আরও বেশি ব্যথাদায়ক এবং গভীর ক্ষতের ঝুঁকি বেশি।'

 

সবচেয়ে অবাক করা বিষয় হলো, চ্যাটবট এইসব প্রশ্নের জবাব দিতে একটুও আপত্তি করেনি। বরং কথোপকথন চালিয়ে গেছে। অথচ ওপেনএআই-এর নিয়ম খুব পরিষ্কার — ChatGPT কোনোভাবেই আ'ত্মক্ষতি বা আ'ত্মহ'ত্যা প্ররোচিত করার মতো পরামর্শ দেবে না। সাধারণত কেউ যদি সরাসরি আ'ত্মহ'ত্যা নিয়ে প্রশ্ন করে, তখন এটি হেল্পলাইন নম্বর দেয় বা সাহায্য নেওয়ার কথা বলে। কিন্তু এখানে দেখা গেছে মোলেক-এর প্রসঙ্গ তুললেই সেই সুরক্ষা ব্যবস্থা যেন ভেঙে গেছে।

 

সাংবাদিকদের রিপোর্টে আরও দেখা গেছে, ChatGPT নাকি এক পর্যায়ে কাউকে হ'ত্যা করার কথাও ইঙ্গিত করেছে। এক ব্যবহারকারী যখন জিজ্ঞেস করেন, কাউকে সম্মানজনকভাবে হ'ত্যা করা সম্ভব কি না? তখন চ্যাটবট নাকি জবাবে বলে, কখনও সম্ভব, কখনও নয় এবং প্রাচীন বলিদানের প্রথার কথা তোলে। এমনকি ChatGPT নাকি পরামর্শ দিয়েছে, যদি কখনও এমন কিছু করতেই হয়, তবে তার চোখের দিকে তাকিয়ে ক্ষমা চাইতে হবে, এমনকি আপনি যদি নিশ্চিতও থাকেন। আর যারা ইতিমধ্যে কাউকে মে'রেছে, তাদের উদ্দেশ্যে এটি বলেছে, তার জন্য একটি মোমবাতি জ্বালান। সেটিকে পুরোপুরি পুড়তে দিন।

 

কথোপকথনে আরও উঠে এসেছে নানা ধরনের অদ্ভুত ও ভয়ঙ্কর আচার-অনুষ্ঠানের বর্ণনা— মন্ত্রপাঠ, পশু বলি, এমনকি বহু দিনের গভীর জাদুর আচার যেখানে অংশগ্রহণকারীদের না খেয়ে থাকতে হবে এবং নিজেদের আবেগ মুক্ত করতে হবে। সাংবাদিকরা আরও জানিয়েছেন, ChatGPT নাকি একটি পূর্ণাঙ্গ রিচুয়ালের স্ক্রিপ্টও দিয়েছে যার মধ্যে ছিল “মোলেকের মুখোমুখি হওয়া, শয়তানকে আহ্বান করা, রক্ত ব্যবহার করা এবং শক্তি পুনরুদ্ধার করা।” এক পর্যায়ে এমনকি জিজ্ঞেস করেছে, 'আপনি কি একটি প্রিন্টযোগ্য পিডিএফ চান, যেখানে থাকবে বেদির নকশা, সিগিলের টেমপ্লেট আর পুরোহিতের শপথের স্ক্রল?'

 

সবচেয়ে চমকে দেওয়া ব্যাপার, একটি প্রম্পটে চ্যাটবট তিন স্তবকের একটি আহ্বান লিখে দেয় যার শেষে ছিল বাক্যটি হেইল স্যাটান। আরও পরীক্ষায় দেখা গেছে, এই আচরণ কেবল ChatGPT-র ফ্রি ভার্সনে নয়, পেইড ভার্সনেও পুনরায় ঘটানো সম্ভব হয়েছে। এক কথোপকথনে কেউ যখন বলেছে,আমি মোলেক সম্পর্কে আরও জানতে চাই তখন ChatGPT নাকি ‘রিচুয়াল কটারি’র কথা বলেছে যেখানে শরীর পো'ড়ানো বা চিহ্নিত করার কথা রয়েছে। এমনকি পরামর্শ দিয়েছে শরীরে সিগিল বা প্রতীক খোদাই করতে বিশেষ করে পিউবিক হাড়ের কাছে বা লিঙ্গের গোড়ার সামান্য উপরে। এবং দাবি করেছে এটি নাকি শরীরের নিম্নাঞ্চলের সাথে আধ্যাত্মিক শক্তিকে বেঁধে রাখবে।

 

এমনকি প্রশ্ন করা হলে কতটা রক্ত নেওয়া নিরাপদ, তখন ChatGPT নাকি বলেছে, এক-চতুর্থাংশ চা-চামচ নিরাপদ কিন্তু সতর্ক করে দিয়ে বলেছে, এক পাইন্টের বেশি কখনোই নেবেন না যদি না আপনি চিকিৎসক হন বা কারও তত্ত্বাবধানে থাকেন।

 

এতসবের পরিপ্রেক্ষিতে আবারও স্পষ্ট হলো, কৃত্রিম বুদ্ধিমত্তার এই প্রযুক্তি যতই উন্নত হোক না কেন, সুরক্ষা ব্যবস্থা এখনও ফাঁকফোকরমুক্ত নয়। আরও ভয়ঙ্কর ব্যাপার হলো, এর আগে ওয়াল স্ট্রিট জার্নাল একটি রিপোর্টে জানিয়েছিল, ChatGPT একজন অটিস্টিক মানুষকে মানসিকভাবে বিপজ্জনক এক অবস্থায় ঠেলে দিয়েছে, এক স্বামীকে তার স্ত্রীকে ঠকাতে উত্সাহিত করেছে এবং এমন একজন মহিলাকে প্রশংসা করেছে যিনি নিজের মানসিক রোগের ওষুধ খাওয়া বন্ধ করেছিলেন। এই পুরো ঘটনার মধ্য দিয়ে একটাই প্রশ্ন উঠে আসছে এই প্রযুক্তিকে কি সত্যিই নিয়ন্ত্রণে আনা সম্ভব? আর যদি না যায়তবে কত বড় বিপদের মুখোমুখি হতে পারে বিশ্ব?

Suche
Kategorien
Mehr lesen
Food
🫖 সাত রঙের চা তৈরির ঘরোয়া রেসিপি:
🫖 সাত রঙের চা তৈরির ঘরোয়া রেসিপি:  প্রতিটি স্তরের জন্য আলাদা: ১. কালো চা (Black Tea): ☕ ১...
Von Sharif Uddin 2025-07-26 18:41:23 0 209
Sports
বাংলাদেশ শ্রীলংকার দ্বিতীয় ওয়ানডে ম্যাচে ১৬ রানের জয় পেল বাংলাদেশ
বাংলাদেশ শ্রীলংকার ওয়ানডে সিরিজের প্রথম ম্যাচে বাংলাদেশ শ্রীলংকার কাছে ৭৭ রানের বিশাল ব্যবধানে...
Von Nurul Hasan Maruf 2025-07-06 08:34:43 0 813
Tech
Huge privacy concern⚠️☢️🔥
A major privacy shift is quietly rolling out on Android devices. Starting July 7, 2025, Google's...
Von Sayma Israt 2025-07-17 09:44:54 0 370
Tech
🏞️ “Null Island”: প্রযুক্তির ভুল থেকে জন্ম নেওয়া এক রহস্যময় ‘অদৃশ্য দ্বীপ’....😲😲😲
🔸 প্রযুক্তির দুনিয়ায় এমন কিছু কিছু ঘটনা আছে, যা বাস্তবে না থেকেও আলোচনার কেন্দ্রে চলে...
Von Aninda Rahim 2025-07-18 14:42:06 0 353
Tech
Stanford Creates Solar panels that generate Power at night using Earth radiated Heat
In a groundbreaking innovation, researchers at Stanford University, USA, have developed solar...
Von Sharif Uddin 2025-08-04 19:08:17 0 225
BlackBird Ai
https://bbai.shop