Dhaka ০৬:২৬ অপরাহ্ন, শনিবার, ২২ ফেব্রুয়ারী ২০২৫, ১০ ফাল্গুন ১৪৩১ বঙ্গাব্দ
শিরোনাম:
বেগম খালেদা জিয়াকে প্রতীকি ক্ষতিপূরণ দেয়া উচিত: সর্বোচ্চ আদালতে ব্যারিস্টার সালাউদ্দিন দোলন সুবিধাবঞ্চিত শিশু ও এতিমদের নিয়ে ককক্সবাজার ভ্রমনে দূর্বার তারুণ্য ফাউন্ডেশন শহীদ বুদ্ধিজীবী দিবসে বিএফইউজে-ডিইউজে’র আলোচনা সভা অনুষ্ঠিত ১৯ ডিসেম্বর থেকে ১ জানুয়ারি পর্যন্ত সুপ্রিম কোর্টে অবকাশ : জরুরি মামলা শুনানিতে অবকাশকালীন বেঞ্চ জান প্রাণ দিয়ে জনআস্থা ধরে রাখতে হবে : তারেক রহমান বাংলাদেশ প্রাথমিক শিক্ষক কল্যান সমিতির নতুন কমিটির অভিষেক : সভাপতি রফিকুল মহাসচিব সাত্তার সাংগঠনিক তোফাজ্জল কোটায় চাকরি : কুমিল্লার এসপি হচ্ছেন জুলাই বিপ্লবে গুলি করা ছাত্রলীগ ক্যাডার নাজির সম্প্রচারিত সংবাদটি সম্পূর্ণ মিথ্যা, কাল্পনিক এবং ভিত্তিহীন : সুপ্রিম কোর্ট প্রশাসন মতিঝিল থানা ৮নং ওয়ার্ড যুবদলের কর্মীসভা অনুষ্ঠিত আওয়ামী লীগসহ ১১টি দলের রাজনৈতিক কার্যক্রম বন্ধে নির্দেশনা চেয়ে রিট

খেয়াল খুশি মতো প্রশ্ন করলে উত্তর দেবে না গুগল

  • Update Time : ০২:১৮:৫৬ অপরাহ্ন, রবিবার, ১৪ অগাস্ট ২০২২
  • / ৯ Time View

বিজ্ঞান-প্রযুক্তি ডেস্ক : 

মূর্খের মতো প্রশ্ন করলে আর উত্তর দেবে না গুগল! সম্প্রতি এমন ঘোষণা দিয়েছে টেক জায়ান্ট প্রতিষ্ঠানটি। এই সার্চ ইঞ্জিন তাদের ‘ফিচার স্নিপেটস’ সার্ভিসের প্রযুক্তিগত উন্নয়ন করছে। এরমধ্য দিয়ে ব্যবহারকারীদের বোকা বোকা প্রশ্নের চটকদার উত্তর দেওয়া বন্ধ হবে।

ব্রিটিশ সংবাদমাধ্যম দ্য গার্ডিয়ানের প্রতিবেদন বলা হয়েছে, গুগলের নতুন আপডেটের ফলে ব্যবহারকারীরা নিজের খেয়াল খুশি মতো প্রশ্ন করলেই উত্তর পাবেন না। যে প্রশ্নের উত্তরের পেছনে যথেষ্ট যুক্তি ও সত্যতা পাওয়া যাবে সে সব প্রশ্নের উত্তরই দেবে গুগল।

এতে আরও বলা হয়েছে, যে সব প্রশ্নের সঠিক উত্তর পাওয়া যাবে না সে সব প্রশ্নের উত্তরে ‌‘যথেষ্ট ভালো উত্তর পাওয়া যায়নি’ বলে ব্যবহারকারীদের সতর্ক করা হবে। এ ক্ষেত্রে ‘ইটস লুক লাইক দেয়ার অ্যারেন্ট মেনি গ্রেট রেজাল্ট ফর দিস সার্চ’ লেখা আসবে।

এ নিয়ে দ্য গার্ডিয়ানের সঙ্গে কথা বলেছেন গুগলের সার্চ বিষয়ক বিভাগের প্রদান পান্ডু নায়ক। তিনি বলেন, ‘প্রশ্নের উত্তরে গুগল সতর্কবার্তা দেওয়া মানে হলো, এই প্রশ্নের কোনো যুতসই উত্তর নেই বা যে সব সম্ভাব্য উত্তর পাওয়া যাচ্ছে তার মান খুবই নিম্ন মানের। সেখানে ভ্রান্তিমূলক তথ্য থাকতে পারে।’

এছাড়াও সার্চ ইঞ্জিনটি আগের মত বিস্তারিত উত্তর দেবে না। যদি প্রশ্ন হয়, আব্রহাম লিংকনকে কখন হত্যা করা হয়েছিল। তখন এর উত্তরে গুগল কেবল মাত্র ‘সাল’ উল্লেখ করবে। অর্থাৎ সঠিক তারিখ প্রদান করবে। এ সম্পর্কে বাড়তি কোনো তথ্য প্রদান করবে না।

পান্ডু নায়ক বলেন, ‘মিথ্যা ও বিভ্রান্তমূলক সংবাদ খুঁজে বের করতে আমাদের সিস্টেমগুলো আরও উন্নত করছি।’

এতদিন গুগলে প্রশ্নের সরাসরি না দিলেও ফিচারধর্মী উত্তর দিয়েছে আর্টিফিশিয়াল ইন্টিলিজেন্ট ব্যবহার করে। ফলে ব্যবহারকারীরা কোনো ওয়েবসাইটে প্রবেশ না করেই গুগল ফিডে উত্তর সংশ্লিষ্ট তথ্য পেতো। এক্ষেত্রে গুগল উল্লেখিত ওয়েবসাইটে সয়ংক্রিয় পদ্ধতিতে প্রবেশ করে সার্চ সংশ্লিষ্ট উত্তর খুঁজে প্রকাশ করতো। তবে এরকম কাজ করতে গিয়ে এই টেক জায়ান্টকে অনেকবার বিপদে পড়তে হয়েছে।

২০১৭ সালে সাবেক মার্কিন প্রেসিডেন্ট বারাক ওবামাকে নিয়ে একটি প্রশ্নের ভুল উত্তর দিয়ে বিপাকে পড়তে হয় গুগলকে। সেখানে একজন ব্যবহারকারী প্রশ্ন করেছিল, ওবামা কি অভ্যুত্থানের পরিকল্পনা করছেন? এমন প্রশ্নের উত্তরে গুগল একটি কন্সপেরেসি ওয়েবসাইট থেকে তথ্য সংগ্রহ করে উত্তর দেয়- ওবামা তার ক্ষমতার শেষ দিকে একটি কমিউনিটি অভ্যুত্থানের পরিকল্পনা করছেন।

তবে গুগল দাবি করছে, তাদের নতুন আপডেটের ফলে এই ধরনের ভুল আর হবে না।

 

Please Share This Post in Your Social Media

Write Your Comment

Your email address will not be published. Required fields are marked *

Save Your Email and Others Information

About Author Information

খেয়াল খুশি মতো প্রশ্ন করলে উত্তর দেবে না গুগল

Update Time : ০২:১৮:৫৬ অপরাহ্ন, রবিবার, ১৪ অগাস্ট ২০২২

বিজ্ঞান-প্রযুক্তি ডেস্ক : 

মূর্খের মতো প্রশ্ন করলে আর উত্তর দেবে না গুগল! সম্প্রতি এমন ঘোষণা দিয়েছে টেক জায়ান্ট প্রতিষ্ঠানটি। এই সার্চ ইঞ্জিন তাদের ‘ফিচার স্নিপেটস’ সার্ভিসের প্রযুক্তিগত উন্নয়ন করছে। এরমধ্য দিয়ে ব্যবহারকারীদের বোকা বোকা প্রশ্নের চটকদার উত্তর দেওয়া বন্ধ হবে।

ব্রিটিশ সংবাদমাধ্যম দ্য গার্ডিয়ানের প্রতিবেদন বলা হয়েছে, গুগলের নতুন আপডেটের ফলে ব্যবহারকারীরা নিজের খেয়াল খুশি মতো প্রশ্ন করলেই উত্তর পাবেন না। যে প্রশ্নের উত্তরের পেছনে যথেষ্ট যুক্তি ও সত্যতা পাওয়া যাবে সে সব প্রশ্নের উত্তরই দেবে গুগল।

এতে আরও বলা হয়েছে, যে সব প্রশ্নের সঠিক উত্তর পাওয়া যাবে না সে সব প্রশ্নের উত্তরে ‌‘যথেষ্ট ভালো উত্তর পাওয়া যায়নি’ বলে ব্যবহারকারীদের সতর্ক করা হবে। এ ক্ষেত্রে ‘ইটস লুক লাইক দেয়ার অ্যারেন্ট মেনি গ্রেট রেজাল্ট ফর দিস সার্চ’ লেখা আসবে।

এ নিয়ে দ্য গার্ডিয়ানের সঙ্গে কথা বলেছেন গুগলের সার্চ বিষয়ক বিভাগের প্রদান পান্ডু নায়ক। তিনি বলেন, ‘প্রশ্নের উত্তরে গুগল সতর্কবার্তা দেওয়া মানে হলো, এই প্রশ্নের কোনো যুতসই উত্তর নেই বা যে সব সম্ভাব্য উত্তর পাওয়া যাচ্ছে তার মান খুবই নিম্ন মানের। সেখানে ভ্রান্তিমূলক তথ্য থাকতে পারে।’

এছাড়াও সার্চ ইঞ্জিনটি আগের মত বিস্তারিত উত্তর দেবে না। যদি প্রশ্ন হয়, আব্রহাম লিংকনকে কখন হত্যা করা হয়েছিল। তখন এর উত্তরে গুগল কেবল মাত্র ‘সাল’ উল্লেখ করবে। অর্থাৎ সঠিক তারিখ প্রদান করবে। এ সম্পর্কে বাড়তি কোনো তথ্য প্রদান করবে না।

পান্ডু নায়ক বলেন, ‘মিথ্যা ও বিভ্রান্তমূলক সংবাদ খুঁজে বের করতে আমাদের সিস্টেমগুলো আরও উন্নত করছি।’

এতদিন গুগলে প্রশ্নের সরাসরি না দিলেও ফিচারধর্মী উত্তর দিয়েছে আর্টিফিশিয়াল ইন্টিলিজেন্ট ব্যবহার করে। ফলে ব্যবহারকারীরা কোনো ওয়েবসাইটে প্রবেশ না করেই গুগল ফিডে উত্তর সংশ্লিষ্ট তথ্য পেতো। এক্ষেত্রে গুগল উল্লেখিত ওয়েবসাইটে সয়ংক্রিয় পদ্ধতিতে প্রবেশ করে সার্চ সংশ্লিষ্ট উত্তর খুঁজে প্রকাশ করতো। তবে এরকম কাজ করতে গিয়ে এই টেক জায়ান্টকে অনেকবার বিপদে পড়তে হয়েছে।

২০১৭ সালে সাবেক মার্কিন প্রেসিডেন্ট বারাক ওবামাকে নিয়ে একটি প্রশ্নের ভুল উত্তর দিয়ে বিপাকে পড়তে হয় গুগলকে। সেখানে একজন ব্যবহারকারী প্রশ্ন করেছিল, ওবামা কি অভ্যুত্থানের পরিকল্পনা করছেন? এমন প্রশ্নের উত্তরে গুগল একটি কন্সপেরেসি ওয়েবসাইট থেকে তথ্য সংগ্রহ করে উত্তর দেয়- ওবামা তার ক্ষমতার শেষ দিকে একটি কমিউনিটি অভ্যুত্থানের পরিকল্পনা করছেন।

তবে গুগল দাবি করছে, তাদের নতুন আপডেটের ফলে এই ধরনের ভুল আর হবে না।