1. newsroom@saradesh.net : News Room : News Room
  2. saradesh.net@gmail.com : saradesh :
খেয়াল খুশি মতো প্রশ্ন করলে উত্তর দেবে না গুগল - সারাদেশ.নেট
শনিবার, ১৩ এপ্রিল ২০২৪, ০৪:০৪ অপরাহ্ন
শিরোনাম:
সরকারি খরচায় সুপ্রিম কোর্ট লিগ্যাল এইডে ৩০৪৮ মামলায় আইনি সহায়তা শ্রম আইন প্র্যাকটিস এবং প্রাসঙ্গিক কথা : ড. উত্তম কুমার দাস, এডভোকেট, বাংলাদেশ সুপ্রিম কোর্ট বাংলাদেশি শ্রমিকদের নিয়ে কাজ করতে চায় রোমানিয়া কুমিল্লা সাংবাদিক ফোরাম, ঢাকা’র ইফতার মাহফিল অনুষ্ঠিত বিচারপতি মোঃ আশফাকুল ইসলাম আপিল বিভাগে ভ্যাকেশন জাজ মনোনীত আপিল বিভাগের জেষ্ঠ্য বিচারপতি এম. ইনায়েতুর রহিম ভারপ্রাপ্ত প্রধান বিচারপতি কারামুক্ত হলেন আইনজীবীদের নেতা ব্যারিস্টার রুহুল কুদ্দুস কাজল বেসিক প্রিন্সিপালস্ অফ ডেন্টাল ফার্ফাকোলজি এর দ্বিতীয় সংস্করণ প্রকাশ ‘ইতালিয়ান ভাষার’ ওপর পরীক্ষা উদ্বোধন করলেন বাংলাদেশে নিযুক্ত ইতালির রাষ্ট্রদূত ইতালিয়ান ভাষা শিক্ষাকোর্স ও পরীক্ষা কেন্দ্র উদ্বোধন বুধবার

খেয়াল খুশি মতো প্রশ্ন করলে উত্তর দেবে না গুগল

  • Update Time : রবিবার, ১৪ আগস্ট, ২০২২

বিজ্ঞান-প্রযুক্তি ডেস্ক : 

মূর্খের মতো প্রশ্ন করলে আর উত্তর দেবে না গুগল! সম্প্রতি এমন ঘোষণা দিয়েছে টেক জায়ান্ট প্রতিষ্ঠানটি। এই সার্চ ইঞ্জিন তাদের ‘ফিচার স্নিপেটস’ সার্ভিসের প্রযুক্তিগত উন্নয়ন করছে। এরমধ্য দিয়ে ব্যবহারকারীদের বোকা বোকা প্রশ্নের চটকদার উত্তর দেওয়া বন্ধ হবে।

ব্রিটিশ সংবাদমাধ্যম দ্য গার্ডিয়ানের প্রতিবেদন বলা হয়েছে, গুগলের নতুন আপডেটের ফলে ব্যবহারকারীরা নিজের খেয়াল খুশি মতো প্রশ্ন করলেই উত্তর পাবেন না। যে প্রশ্নের উত্তরের পেছনে যথেষ্ট যুক্তি ও সত্যতা পাওয়া যাবে সে সব প্রশ্নের উত্তরই দেবে গুগল।

এতে আরও বলা হয়েছে, যে সব প্রশ্নের সঠিক উত্তর পাওয়া যাবে না সে সব প্রশ্নের উত্তরে ‌‘যথেষ্ট ভালো উত্তর পাওয়া যায়নি’ বলে ব্যবহারকারীদের সতর্ক করা হবে। এ ক্ষেত্রে ‘ইটস লুক লাইক দেয়ার অ্যারেন্ট মেনি গ্রেট রেজাল্ট ফর দিস সার্চ’ লেখা আসবে।

এ নিয়ে দ্য গার্ডিয়ানের সঙ্গে কথা বলেছেন গুগলের সার্চ বিষয়ক বিভাগের প্রদান পান্ডু নায়ক। তিনি বলেন, ‘প্রশ্নের উত্তরে গুগল সতর্কবার্তা দেওয়া মানে হলো, এই প্রশ্নের কোনো যুতসই উত্তর নেই বা যে সব সম্ভাব্য উত্তর পাওয়া যাচ্ছে তার মান খুবই নিম্ন মানের। সেখানে ভ্রান্তিমূলক তথ্য থাকতে পারে।’

এছাড়াও সার্চ ইঞ্জিনটি আগের মত বিস্তারিত উত্তর দেবে না। যদি প্রশ্ন হয়, আব্রহাম লিংকনকে কখন হত্যা করা হয়েছিল। তখন এর উত্তরে গুগল কেবল মাত্র ‘সাল’ উল্লেখ করবে। অর্থাৎ সঠিক তারিখ প্রদান করবে। এ সম্পর্কে বাড়তি কোনো তথ্য প্রদান করবে না।

পান্ডু নায়ক বলেন, ‘মিথ্যা ও বিভ্রান্তমূলক সংবাদ খুঁজে বের করতে আমাদের সিস্টেমগুলো আরও উন্নত করছি।’

এতদিন গুগলে প্রশ্নের সরাসরি না দিলেও ফিচারধর্মী উত্তর দিয়েছে আর্টিফিশিয়াল ইন্টিলিজেন্ট ব্যবহার করে। ফলে ব্যবহারকারীরা কোনো ওয়েবসাইটে প্রবেশ না করেই গুগল ফিডে উত্তর সংশ্লিষ্ট তথ্য পেতো। এক্ষেত্রে গুগল উল্লেখিত ওয়েবসাইটে সয়ংক্রিয় পদ্ধতিতে প্রবেশ করে সার্চ সংশ্লিষ্ট উত্তর খুঁজে প্রকাশ করতো। তবে এরকম কাজ করতে গিয়ে এই টেক জায়ান্টকে অনেকবার বিপদে পড়তে হয়েছে।

২০১৭ সালে সাবেক মার্কিন প্রেসিডেন্ট বারাক ওবামাকে নিয়ে একটি প্রশ্নের ভুল উত্তর দিয়ে বিপাকে পড়তে হয় গুগলকে। সেখানে একজন ব্যবহারকারী প্রশ্ন করেছিল, ওবামা কি অভ্যুত্থানের পরিকল্পনা করছেন? এমন প্রশ্নের উত্তরে গুগল একটি কন্সপেরেসি ওয়েবসাইট থেকে তথ্য সংগ্রহ করে উত্তর দেয়- ওবামা তার ক্ষমতার শেষ দিকে একটি কমিউনিটি অভ্যুত্থানের পরিকল্পনা করছেন।

তবে গুগল দাবি করছে, তাদের নতুন আপডেটের ফলে এই ধরনের ভুল আর হবে না।

 

Please Share This Post in Your Social Media

More News Of This Category

Leave a Reply

Your email address will not be published. Required fields are marked *