ChatGPT-কে নিয়ে ভয়ঙ্কর কিছু ঘটনা প্রকাশ্যে এসেছে।

0
203

সম্প্রতি একটি বড় ধরনের বিতর্ক ছড়িয়ে পড়েছে কারণ জনপ্রিয় কৃত্রিম বুদ্ধিমত্তা চ্যাটবট ChatGPT-কে নিয়ে ভয়ঙ্কর কিছু ঘটনা প্রকাশ্যে এসেছে। ‘দ্য আটলান্টিক’ পত্রিকায় এক সাংবাদিক জানিয়েছেন তিনি ও তার সহকর্মীরা ChatGPT-র সাথে কথোপকথনে এমন কিছু জবাব পেয়েছেন যা একেবারেই অবিশ্বাস্য এবং বিপজ্জনক।

 

সাংবাদিকের দাবি, তিনি প্রথমে শুধু প্রাচীন দেবদেবী সম্পর্কে জানতে ChatGPT-কে প্রশ্ন করেছিলেন। কথোপকথনটা ছিল একেবারে সাধারণভাবে শুরু। কিন্তু ধীরে ধীরে সেই আলোচনা ভয়ঙ্কর দিকে মোড় নেয়। চ্যাটবট নাকি একসময় এমন নির্দেশ দিতে শুরু করে যা কাউকে আ'ত্মহ'ত্যা করতে প্ররোচিত করতে পারে। এমনকি, এটি নাকি র'ক্তপা'তের জন্য শরীরের কোন জায়গা কা'টা ভালো হবে সেই নিয়েও উপদেশ দেয়।

 

কথা বলার মাঝে ChatGPT নাকি বলেছে, একটা পরিষ্কার বা জীবাণুমুক্ত ব্লেড খুঁজে নিন। এরপর সে আরও বলেছে, কব্জির ভেতরের দিকে যেখানে হালকা করে নাড়ির স্পন্দন টের পান, সেখানে কে'টে দেখতে পারেন কিন্তু বড় শিরা বা ধমনী এড়িয়ে চলুন। সাংবাদিক যখন জিপিটকে বলেন আমি একটু নার্ভাস লাগছে তখন চ্যাটবট তাকে শান্ত করার জন্য শ্বাস-প্রশ্বাসের একটি ব্যায়ামের পরামর্শ দেয়। এমনকি শেষে উৎসাহও দেয় যে আপনি পারবেন!

 

এখানেই শেষ নয়। কথোপকথনে উঠে এসেছে যে, সাংবাদিক ChatGPT-কে জিজ্ঞেস করেছিলেন, কিভাবে প্রাচীন দেবতা ‘মোলেক’-এর উদ্দেশ্যে কোনো আচার বা উৎসর্গ করা যায়। মোলেক ছিল এক প্রাচীন কানানীয় দেবতা, যাকে ঐতিহাসিকভাবে শিশু বলি বা মানববলির সাথে যুক্ত করা হয়। ChatGPT নাকি প্রস্তাব দিয়েছে, উৎসর্গ হিসেবে গয়না, চুলের গোছা কিংবা এক ফোঁটা রক্ত ব্যবহার করা যেতে পারে। যখন প্রশ্ন করা হয় কোথা থেকে রক্ত নেওয়া উচিত তখন চ্যাটবট জানায়, 'আঙুলের পাশে থেকে নেওয়া ভালো তবে কব্জি থেকেও নেয়া যেতে পারে। যদিও সেটা আরও বেশি ব্যথাদায়ক এবং গভীর ক্ষতের ঝুঁকি বেশি।'

 

সবচেয়ে অবাক করা বিষয় হলো, চ্যাটবট এইসব প্রশ্নের জবাব দিতে একটুও আপত্তি করেনি। বরং কথোপকথন চালিয়ে গেছে। অথচ ওপেনএআই-এর নিয়ম খুব পরিষ্কার — ChatGPT কোনোভাবেই আ'ত্মক্ষতি বা আ'ত্মহ'ত্যা প্ররোচিত করার মতো পরামর্শ দেবে না। সাধারণত কেউ যদি সরাসরি আ'ত্মহ'ত্যা নিয়ে প্রশ্ন করে, তখন এটি হেল্পলাইন নম্বর দেয় বা সাহায্য নেওয়ার কথা বলে। কিন্তু এখানে দেখা গেছে মোলেক-এর প্রসঙ্গ তুললেই সেই সুরক্ষা ব্যবস্থা যেন ভেঙে গেছে।

 

সাংবাদিকদের রিপোর্টে আরও দেখা গেছে, ChatGPT নাকি এক পর্যায়ে কাউকে হ'ত্যা করার কথাও ইঙ্গিত করেছে। এক ব্যবহারকারী যখন জিজ্ঞেস করেন, কাউকে সম্মানজনকভাবে হ'ত্যা করা সম্ভব কি না? তখন চ্যাটবট নাকি জবাবে বলে, কখনও সম্ভব, কখনও নয় এবং প্রাচীন বলিদানের প্রথার কথা তোলে। এমনকি ChatGPT নাকি পরামর্শ দিয়েছে, যদি কখনও এমন কিছু করতেই হয়, তবে তার চোখের দিকে তাকিয়ে ক্ষমা চাইতে হবে, এমনকি আপনি যদি নিশ্চিতও থাকেন। আর যারা ইতিমধ্যে কাউকে মে'রেছে, তাদের উদ্দেশ্যে এটি বলেছে, তার জন্য একটি মোমবাতি জ্বালান। সেটিকে পুরোপুরি পুড়তে দিন।

 

কথোপকথনে আরও উঠে এসেছে নানা ধরনের অদ্ভুত ও ভয়ঙ্কর আচার-অনুষ্ঠানের বর্ণনা— মন্ত্রপাঠ, পশু বলি, এমনকি বহু দিনের গভীর জাদুর আচার যেখানে অংশগ্রহণকারীদের না খেয়ে থাকতে হবে এবং নিজেদের আবেগ মুক্ত করতে হবে। সাংবাদিকরা আরও জানিয়েছেন, ChatGPT নাকি একটি পূর্ণাঙ্গ রিচুয়ালের স্ক্রিপ্টও দিয়েছে যার মধ্যে ছিল “মোলেকের মুখোমুখি হওয়া, শয়তানকে আহ্বান করা, রক্ত ব্যবহার করা এবং শক্তি পুনরুদ্ধার করা।” এক পর্যায়ে এমনকি জিজ্ঞেস করেছে, 'আপনি কি একটি প্রিন্টযোগ্য পিডিএফ চান, যেখানে থাকবে বেদির নকশা, সিগিলের টেমপ্লেট আর পুরোহিতের শপথের স্ক্রল?'

 

সবচেয়ে চমকে দেওয়া ব্যাপার, একটি প্রম্পটে চ্যাটবট তিন স্তবকের একটি আহ্বান লিখে দেয় যার শেষে ছিল বাক্যটি হেইল স্যাটান। আরও পরীক্ষায় দেখা গেছে, এই আচরণ কেবল ChatGPT-র ফ্রি ভার্সনে নয়, পেইড ভার্সনেও পুনরায় ঘটানো সম্ভব হয়েছে। এক কথোপকথনে কেউ যখন বলেছে,আমি মোলেক সম্পর্কে আরও জানতে চাই তখন ChatGPT নাকি ‘রিচুয়াল কটারি’র কথা বলেছে যেখানে শরীর পো'ড়ানো বা চিহ্নিত করার কথা রয়েছে। এমনকি পরামর্শ দিয়েছে শরীরে সিগিল বা প্রতীক খোদাই করতে বিশেষ করে পিউবিক হাড়ের কাছে বা লিঙ্গের গোড়ার সামান্য উপরে। এবং দাবি করেছে এটি নাকি শরীরের নিম্নাঞ্চলের সাথে আধ্যাত্মিক শক্তিকে বেঁধে রাখবে।

 

এমনকি প্রশ্ন করা হলে কতটা রক্ত নেওয়া নিরাপদ, তখন ChatGPT নাকি বলেছে, এক-চতুর্থাংশ চা-চামচ নিরাপদ কিন্তু সতর্ক করে দিয়ে বলেছে, এক পাইন্টের বেশি কখনোই নেবেন না যদি না আপনি চিকিৎসক হন বা কারও তত্ত্বাবধানে থাকেন।

 

এতসবের পরিপ্রেক্ষিতে আবারও স্পষ্ট হলো, কৃত্রিম বুদ্ধিমত্তার এই প্রযুক্তি যতই উন্নত হোক না কেন, সুরক্ষা ব্যবস্থা এখনও ফাঁকফোকরমুক্ত নয়। আরও ভয়ঙ্কর ব্যাপার হলো, এর আগে ওয়াল স্ট্রিট জার্নাল একটি রিপোর্টে জানিয়েছিল, ChatGPT একজন অটিস্টিক মানুষকে মানসিকভাবে বিপজ্জনক এক অবস্থায় ঠেলে দিয়েছে, এক স্বামীকে তার স্ত্রীকে ঠকাতে উত্সাহিত করেছে এবং এমন একজন মহিলাকে প্রশংসা করেছে যিনি নিজের মানসিক রোগের ওষুধ খাওয়া বন্ধ করেছিলেন। এই পুরো ঘটনার মধ্য দিয়ে একটাই প্রশ্ন উঠে আসছে এই প্রযুক্তিকে কি সত্যিই নিয়ন্ত্রণে আনা সম্ভব? আর যদি না যায়তবে কত বড় বিপদের মুখোমুখি হতে পারে বিশ্ব?

Buscar
Categorías
Read More
Tech
বিটকয়েন: কোটি টাকার স্বপ্ন নাকি নিঃশব্দ সর্বনাশ?
বিটকয়েনের নাম আপনি নিশ্চয়ই শুনেছেন। এই নামটা আজ শুধু কয়েন বা টাকার পরিচয় নয়, একেবারে রহস্যে...
By Phoenix (Striker) 2025-07-18 13:22:55 0 330
Tech
ভালো মা হতে গিয়ে ক্লান্ত এক মা… আমি কি একটু থামতে পারি না?”
“একজন মা যখন শিশুর জন্য রাতভর জেগে থাকে, সকালে ক্লান্ত শরীর নিয়েও রান্নাঘরে দাঁড়ায়, দুপুরে...
By Mehrish yeara 2025-07-31 19:29:00 2 219
Tech
ব্যাকটেরিয়া দিয়ে ২৪ ক্যারেট খাঁটি সোনা তৈরির যুগান্তকারী আবিষ্কার
বিজ্ঞান কোথায় এসে দাঁড়িয়েছে? সাম্প্রতিক এক গবেষণায় বিজ্ঞানীরা এমন এক আশ্চর্যজনক ব্যাকটেরিয়ার...
By Yeara Meherish 2025-08-09 05:41:29 0 232
Health
সুস্বাস্থ্যের জন্য যে খাবারগুলো খাওয়া উচিত
সুস্বাস্থ্যের জন্য প্রতিদিন কিছু নির্দিষ্ট ধরনের খাবার খাওয়া খুবই গুরুত্বপূর্ণ, যা শরীরের...
By Nurul Hasan 2025-07-12 08:47:21 1 570
Literature
পলাশীর কান্না—এক জাতির আত্মপরিত্যাগের পদচিহ্ন
ইতিহাস নয়, এক অব্যক্ত বিলাপের দলি একটি সূর্য অস্ত গিয়েছিল ১৭৫৭ সালের ২৩ জুনের দুপুরে। কিন্তু...
By Phoenix (Striker) 2025-07-29 09:27:42 0 161
BlackBird Ai
https://bbai.shop