1. newsroom@saradesh.net : News Room : News Room
  2. saradesh.net@gmail.com : saradesh :
খেয়াল খুশি মতো প্রশ্ন করলে উত্তর দেবে না গুগল - সারাদেশ.নেট
বৃহস্পতিবার, ২১ নভেম্বর ২০২৪, ০৪:৫৭ অপরাহ্ন
শিরোনাম:
কোটায় চাকরি : কুমিল্লার এসপি হচ্ছেন জুলাই বিপ্লবে গুলি করা ছাত্রলীগ ক্যাডার নাজির সম্প্রচারিত সংবাদটি সম্পূর্ণ মিথ্যা, কাল্পনিক এবং ভিত্তিহীন : সুপ্রিম কোর্ট প্রশাসন মতিঝিল থানা ৮নং ওয়ার্ড যুবদলের কর্মীসভা অনুষ্ঠিত আওয়ামী লীগসহ ১১টি দলের রাজনৈতিক কার্যক্রম বন্ধে নির্দেশনা চেয়ে রিট বাংলাদেশ প্রাথমিক শিক্ষক কল্যান সমিতির সভাপতি রফিক, মহাসচিব সাত্তার সাংগঠনিক সম্পাদক তফাজ্জল বুড়িচং জগতপুরে অগ্নিকাণ্ডে নিঃস্ব হয়ে গেছে একটি পরিবার হাইকোর্টে ২৩ অতিরিক্ত বিচারপতি নিয়োগ খালাস পেলেন যুবদল নেতা আইনজীবী নুরে আলম সিদ্দিকী সোহাগ আপিল বিভাগে তালিকাভুক্ত হলেন এডভোকেট গাজী কামরুল ইসলাম সজল দেশে ফিরেছেন প্রধান উপদেষ্টা

খেয়াল খুশি মতো প্রশ্ন করলে উত্তর দেবে না গুগল

  • Update Time : রবিবার, ১৪ আগস্ট, ২০২২

বিজ্ঞান-প্রযুক্তি ডেস্ক : 

মূর্খের মতো প্রশ্ন করলে আর উত্তর দেবে না গুগল! সম্প্রতি এমন ঘোষণা দিয়েছে টেক জায়ান্ট প্রতিষ্ঠানটি। এই সার্চ ইঞ্জিন তাদের ‘ফিচার স্নিপেটস’ সার্ভিসের প্রযুক্তিগত উন্নয়ন করছে। এরমধ্য দিয়ে ব্যবহারকারীদের বোকা বোকা প্রশ্নের চটকদার উত্তর দেওয়া বন্ধ হবে।

ব্রিটিশ সংবাদমাধ্যম দ্য গার্ডিয়ানের প্রতিবেদন বলা হয়েছে, গুগলের নতুন আপডেটের ফলে ব্যবহারকারীরা নিজের খেয়াল খুশি মতো প্রশ্ন করলেই উত্তর পাবেন না। যে প্রশ্নের উত্তরের পেছনে যথেষ্ট যুক্তি ও সত্যতা পাওয়া যাবে সে সব প্রশ্নের উত্তরই দেবে গুগল।

এতে আরও বলা হয়েছে, যে সব প্রশ্নের সঠিক উত্তর পাওয়া যাবে না সে সব প্রশ্নের উত্তরে ‌‘যথেষ্ট ভালো উত্তর পাওয়া যায়নি’ বলে ব্যবহারকারীদের সতর্ক করা হবে। এ ক্ষেত্রে ‘ইটস লুক লাইক দেয়ার অ্যারেন্ট মেনি গ্রেট রেজাল্ট ফর দিস সার্চ’ লেখা আসবে।

এ নিয়ে দ্য গার্ডিয়ানের সঙ্গে কথা বলেছেন গুগলের সার্চ বিষয়ক বিভাগের প্রদান পান্ডু নায়ক। তিনি বলেন, ‘প্রশ্নের উত্তরে গুগল সতর্কবার্তা দেওয়া মানে হলো, এই প্রশ্নের কোনো যুতসই উত্তর নেই বা যে সব সম্ভাব্য উত্তর পাওয়া যাচ্ছে তার মান খুবই নিম্ন মানের। সেখানে ভ্রান্তিমূলক তথ্য থাকতে পারে।’

এছাড়াও সার্চ ইঞ্জিনটি আগের মত বিস্তারিত উত্তর দেবে না। যদি প্রশ্ন হয়, আব্রহাম লিংকনকে কখন হত্যা করা হয়েছিল। তখন এর উত্তরে গুগল কেবল মাত্র ‘সাল’ উল্লেখ করবে। অর্থাৎ সঠিক তারিখ প্রদান করবে। এ সম্পর্কে বাড়তি কোনো তথ্য প্রদান করবে না।

পান্ডু নায়ক বলেন, ‘মিথ্যা ও বিভ্রান্তমূলক সংবাদ খুঁজে বের করতে আমাদের সিস্টেমগুলো আরও উন্নত করছি।’

এতদিন গুগলে প্রশ্নের সরাসরি না দিলেও ফিচারধর্মী উত্তর দিয়েছে আর্টিফিশিয়াল ইন্টিলিজেন্ট ব্যবহার করে। ফলে ব্যবহারকারীরা কোনো ওয়েবসাইটে প্রবেশ না করেই গুগল ফিডে উত্তর সংশ্লিষ্ট তথ্য পেতো। এক্ষেত্রে গুগল উল্লেখিত ওয়েবসাইটে সয়ংক্রিয় পদ্ধতিতে প্রবেশ করে সার্চ সংশ্লিষ্ট উত্তর খুঁজে প্রকাশ করতো। তবে এরকম কাজ করতে গিয়ে এই টেক জায়ান্টকে অনেকবার বিপদে পড়তে হয়েছে।

২০১৭ সালে সাবেক মার্কিন প্রেসিডেন্ট বারাক ওবামাকে নিয়ে একটি প্রশ্নের ভুল উত্তর দিয়ে বিপাকে পড়তে হয় গুগলকে। সেখানে একজন ব্যবহারকারী প্রশ্ন করেছিল, ওবামা কি অভ্যুত্থানের পরিকল্পনা করছেন? এমন প্রশ্নের উত্তরে গুগল একটি কন্সপেরেসি ওয়েবসাইট থেকে তথ্য সংগ্রহ করে উত্তর দেয়- ওবামা তার ক্ষমতার শেষ দিকে একটি কমিউনিটি অভ্যুত্থানের পরিকল্পনা করছেন।

তবে গুগল দাবি করছে, তাদের নতুন আপডেটের ফলে এই ধরনের ভুল আর হবে না।

 

Please Share This Post in Your Social Media

More News Of This Category

Leave a Reply

Your email address will not be published. Required fields are marked *