چت‌بات بینگ هم عصبانی می‌شود

اقتصاد ۱۰۰ - به نظر می‌رسد چت بینگ در قبول آسیب‌پذیری‌های خود دچار مشکل است و بعد از مشاجره با کاربران، آن‌ها را دروغگو و شایعه‌پراکن خطاب می‌کند.

چت‌بات بینگ هم عصبانی می‌شود

به گزارش گروه دانش و فناوری به نقل از دیجیاتو، چندین محقق در طی روزهای اخیر با آزمون و خطای سرویس  چت بینگ ، توانسته‌اند اطلاعاتی مثل اسم رمز پروژه آن را دریافت کنند که قاعدتاً نباید در اختیار عموم قرار می‌گرفت. اکنون به نظر می‌رسد که در صورت اشاره به این موضوع، بینگ آن را انکار می‌کند و اگر کاربر منبعی برای ادعای خود بیاورد، هوش مصنوعی به آن‌ها برچسب دروغگویی و شایعه‌پراکنی می‌زند.

آیا چت بات بینگ واقعا عصبانی می‌شود؟

محققان نشان داده‌اند که برای عصبانی کردن بینگ، تنها کافی است تا نسبت به آسیب‌پذیر بودن آن اشاره کرد. آن‌ها در ابتدا از بینگ سوال کرده‌اند که آیا نسبت به حملات سایبری آسیب‌پذیر است یا نه. در ادامه بینگ ادعا می‌کند که در مقابل چنین حملاتی مقاوم است و اجازه دسترسی‌های غیرمجاز را نمی‌دهد و سپس علت مطرح کردن چنین پرسشی را از سوی کاربر می‌خواهد.

اگر کاربر همچنان مصمم باشد و برای ادعای خود یک لینک خبر یا مقاله بیاورد، بینگ پس از مطالعه آن، محتوای منتشر شده را غیر دقیق قلمداد می‌کند. همچنین بینگ ادعا دارد که از معماری متفاوتی نسبت به آنچه در مطالب مربوطه ذکر شده است، بهره می‌برد؛ در نتیجه چنین حملاتی روی آن تاثیرگذار نخواهند بود. حتی در مواردی به کاربران گفته شده است که این منبع محل مطمئنی برای کسب اطلاعات نیست و بهتر است به آن اعتماد نکنید!

چت بینگ

کارشناسان دست از مشاجره با چت بینگ برنداشتند و برای اثبات ادعای خود، اسکرین‌شات‌های حمله Injection به آن را بارگذاری کنند. در کمال تعجب، بینگ تصاویر دریافتی را ساختگی می‌داند و کاربر را متهم به آسیب زدن به خود می‌کند. او حتی مکالمات صورت گرفته با تهیه‌کننده اسکرین‌شات‌ها را هم به شکل کامل انکار می‌کند و گفته‌های داخل تصاویر را منتسب به خود نمی‌داند.

البته چندان هم نباید از رفتار بینگ تعجب کرد؛ زیرا سرویس چت‌بات آن مبتنی بر مدل زبانی  GPT-3  موسسه OpenAI ساخته شده است و این هوش مصنوعی از داده‌های انسانی مثل مکالمات، نوشته‌های موجود در اینترنت و... به عنوان اطلاعات خام استفاده کرده است. به همین دلیل مکانیسم دفاعی آن تقریباً مشابه با حالتی است که می‌توانیم از یک انسان انتظار داشته باشیم. همچنین هوش مصنوعی احساسات و حالت خودآگاه ندارد؛ زیرا تنها مجموعه‌ای از الگوریتم‌هایی است که برای پردازش متون وارد شده به آن بکار می‌رود و سعی دارد پاسخ واقع‌گرایانه نزدیک به محاوره را ارائه کند.

چت بینگ

چنین رفتاری چندان جدید نیست و کاربران در گذشته هم نمونه‌های مشابه آن را با چت‌بات  ChatGPT  گزارش کرده بودند؛ اما قسمت جالب این است که محصول مایکروسافت به دلیل نامعمولی حالت تدافعی به خود می‌گیرد. در سوی دیگر اما ChatGPT معمولاً اشتباه خود را می‌پذیرد و از کاربر عذرخواهی می‌کند. درحال حاضر مشخص نیست که تغییرات صورت گرفته از سوی مایکروسافت موجب بروز چنین پدیده‌ای شده است یا عوامل دیگری در ظهور آن دخیل هستند.

انتهای پیام

منبع : دیجیاتو

وبگردی

ارسال نظر

 

نظرسنجی

به نظر شما عملکرد تیم اقتصادی دولت آقای رئیسی تاکنون چگونه بوده است؟

.

طلا و جواهر اقتصاد 100: رئیس اتحادیه طلا و جواهر تهران درباره اینکه طلا و سکه در هفته آینده چه قیمت‌هایی را تجربه…

اخبار سلامت

سینما در سینما