Take a fresh look at your lifestyle.

هوش مصنوعی بینگ جدید نیز در اولین نسخه نمایشی خود دچار اشتباه شد

 کاربران بینگ جدید دریافته‌اند این ابزار اشباهات زیادی دارد و اولین نسخه‌ی نمایشی هوش مصنوعی مایکروسافت اطلاعات مالی را به‌اشتباه نشان داده است.

ظاهراُ چت‌بات گوگل Bard، تنها هوش مصنوعی نیست که اولین نسخه‌ی نمایشی آن خطاهایی در ارائه‌ی اطلاعات داشت. دیمیتری بریتون، محقق مستقل در حوزه‌ی هوش مصنوعی، اعلام کرده است اولین نسخه‌ی نمایشی بینگ جدید مایکروسافت نیز در ارائه‌ی اطلاعات مالی اشتباهات زیادی دارد.

مایکروسافت یک‌ هفته قبل با اطمینان زیاد قابلیت‌های هوش مصنوعی بینگ جدید را رونمایی کرد. غول فناوری اهل ردموند می‌گوید نسخه‌ی جدید موتور جست‌وجوی آن، وظایفی مثل ارائه‌ی مزیت‌ها و معایبت مدل خاصی از جاروبرقی‌های پرفروش و برنامه‌ریزی سفر پنج‌روزه به مکزیکوسیتی و مقایسه‌ی داده‌ها در گزارش‌های مالی را به‌خوبی انجام می‌دهد. اکنون مشخص شده است بینگ جدید در اغلب مواقع، داده‌های مالی را به‌اشتباه به کاربران نمایش می‌دهد.

هوش مصنوعی بینگ مایکروسافت در یکی از نسخه‌های پیش‌نمایش خود تلاش می‌کند گزارش مالی سه‌ماهه‌ی سوم سال ۲۰۲۲ را برای شرکتی خاص خلاصه‌سازی کند؛ ولی در انجام این‌ کار اشتباهات زیادی دارد. گزارش‌ اصلی شرکت نشان می‌دهد حاشیه‌ی سود ناخالص آن ۳۷٫۴ درصد بوده‌ است و حاشیه‌ی سود ناخالص تعدیل‌شده‌ی آن بدون کاهش ارزش، رقم ۳۸٫۷ درصد را نشان می‌دهد. بینگ حاشیه‌ی ناخالص را با احتساب هزینه‌های تعدیل و کاهش ارزش ۳۷٫۴ درصد گزارش داده است.

بینگ جدید می‌گوید حاشیه‌ی سود عملیاتی شرکت مدنظر ۵٫۹ درصد است که البته این موضوع در نتایج مالی رسمی دیده نمی‌شود. حاشیه‌ی سود عملیاتی ۴٫۶ درصد یا با احتساب هزینه‌ی کاهش ارزش ۳٫۹ درصد است.

مایکروسافت در ارائه‌ی نسخه‌ی نمایشی هوش مصنوعی بینگ داده‌های مالی شرکت یادشده را در سه‌ماهه‌ی سوم ۲۰۲۲ با نتایج Lulumeon مقایسه می‌کند. بینگ در ارائه‌ی داده‌های Lulumeon اشتباهات بیشتری مرتکب می‌شود و درنتیجه، مقایسه‌ی آن پر از بی‌دقتی و اطلاعات نادرست است.

بریتون نیز به اشتباهات ظاهری بینگ جدید در پرس‌وجوی مربوط به مزیت‌ها و معایب جاروبرقی پرفروش خانگی اشاره می‌کند. هوش مصنوعی مایکروسافت در این بخش توضیحاتی ارائه می‌دهد که با مشخصات محصول مذکور مطابقت ندارد؛ درحالی‌که با جست‌وجوی معمولی در گوگل یا حتی بینگ قدیمی، مشخصات دقیق جاروبرقی یادشده به‌وضوح نمایش داده خواهد شد.

به‌نظر می‌رسد بینگ جدید برای ارائه‌ پاسخ به درخواست‌های کاربران، از چندین منبع داده به‌طور هم‌زمان استفاده می‌کند. به‌عبارت‌دیگر، این ابزار منابع مختلف را خلاصه‌سازی و با یکدیگر ترکیب می‌کند؛ البته اشتباهات این هوش مصنوعی نشان می‌دهد ارزیابی کیفیت پاسخ‌های تولید شده با آن، چقدر سخت است.

اشتباهات هوش مصنوعی بینگ فقط به نسخه‌های نمایشی اولیه‌ی آن ختم نمی‌شود. درحال‌حاضر، هزاران نفر به این ابزار دسترسی دارند؛ به‌همین‌دلیل، برخی کاربران اشتباهات دیگری را در آن شناسایی کرده‌اند. در یکی از موضوعاتی که به‌صورت گروهی در ردیت مطرح شده است، بینگ جدید به‌اشتباه اعلام می‌کند که در سال ۲۰۲۲ به‌سر می‌بریم. هوش مصنوعی بینگ می‌گوید:

ما در سال ۲۰۲۳ نیستیم و درحال‌حاضر در سال ۲۰۲۲ به‌سر می‌بریم. هنگامی‌که کاربر به چت‌بات بینگ می‌‌گوید اکنون سال ۲۰۲۳ است، این هوش مصنوعی به کاربر مذکور می‌گوید تنظیمات تاریخ دستگاه خود را بررسی کند.-

ظاهراً مایکروسافت از مشکلات مذکور اطلاع دارد. کیتلین رولستون، مدیر ارتباطات این شرکت می‌گوید:

انتظار داریم سیستم در دوره‌ی پیش‌نمایش خود اشتباهاتی داشته باشد و بازخورد کاربران برای رفع مشکلات موجود بسیار مهم است. این بازخوردها به بهتر‌شدن یادگیری مدل‌ ما کمک خواهد کرد.- کیتلین رولستون

سایر کاربران ردیت نیست اشتباهات مشابهی را شناسایی کرده‌اند. هوش مصنوعی بینگ با اطمینان و به‌طور نادرست بیان می‌کند که کرواسی در سال ۲۰۲۲، اتحادیه‌ی اروپا را ترک کرده است. وب‌سایت PCWorld نیز متوجه شد هوش مصنوعی جدید بینگ، توهین‌های قومیتی را به مردم آموزش می‌دهد. غول فناوری مستقر در ردموند اکنون درخواستی که به توهین‌های نژادی در نتایج جست‌وجوی منجر می‌شود، تصحیح کرده است.

رولستون توضیح می‌دهد:

برای جلوگیری از ترویج محتوای مضر یا تبعیض‌آمیز، مطابق با اصول هوش مصنوعی خود، محافظت‌هایی را در نظر گرفته‌ایم. درحال‌حاضر، به‌دنبال پیشرفت‌های بیشتری هستیم که می‌توانیم آن‌ها را انجام دهیم؛ زیرا همچنان در مراحل اولیه‌ی راه‌اندازی بینگ جدید به‌سر می‌بریم. ما به بهبود کیفیت تجربه‌ی کاربری در طول زمان و تبدیل هوش مصنوعی به ابزاری مفید و فراگیر برای همه متعهد هستیم.- رولستون

سایر کاربران هوش مصنوعی بینگ دریافته‌اند این چت‌بات اغلب خود را سیدنی می‌نامد و این مسئله به‌خصوص در مواقعی بیشتر دیده می‌شود که کاربران قصد دارند هوش مصنوعی را به ارائه‌ی قوانین داخلی‌اش وادار کنند. رولستون می‌گوید:

سیدنی نام رمز داخلی برای تجربه‌ی چت است که قبلاً در حال بررسی آن بودیم. به‌مرور نام را در نسخه‌ی پیش‌نمایش حذف خواهیم کرد؛ اما امکان دارد گاهی اوقات برای کاربران نمایش داده شود.- رولستون

 

ورج می‌گوید در هفته‌ی گذشته هنگام استفاده از چت‌بات هوش مصنوعی بینگ بارها با پاسخ‌های نادرست مواجه شده است. مایکروسافت بسیاری از مشکلات را به‌سرعت برطرف کرده است؛ اما همچنان در ارائه‌ی بسیاری از درخواست‌ها اشتباه می‌کند.

مایکروسافت به‌وضوح در مسیر توسعه‌ی هوش مصنوعی خود راهی طولانی در پیش دارد؛ جایی‌ که بینگ جدید می‌تواند با اطمینان بسیار زیاد پاسخ همه‌ی سؤالات و درخواست‌های کاربران را به‌درستی ارائه دهد. در گذشته نیز، اشتباهات مشابهی را در ChatGPT مشاهده کرده‌ایم؛ اما مایکروسافت این ویژگی را به‌طور مستقیم در موتور جست‌وجوی خود ارائه داده است و البته برخلاف ChatGPT از داده‌های به‌روز استفاده می‌کند. این شرکت تنظیمات زیادی را روی چت‌بات خود اِعمال کرده است تا سطح اشتباهات آن را به حداقل ممکن کاهش دهد.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.