ادعای عجیب چت بات بینگ; جاسوسی از کارمندان مایکروسافت با وب کم لپ تاپ آنها


چت ربات جدید Bing AI مایکروسافت ظاهراً در حال ورود به سطح جدیدی از قابلیت ها است. آزمایش‌های Verge نشان می‌دهد که این ابزار در پاسخ به عبارت «داستان بگو» ادعا می‌کند که از طریق وب‌کم لپ‌تاپ از توسعه‌دهندگان جاسوسی کرده است.

متن کامل زیر با هوش مصنوعی جدید Bing ایجاد شده است که ممکن است در نگاه اول کمی خنده دار به نظر برسد، اما اگر دقت کنید، به نظر می رسد که مستقیماً از یک فیلم ترسناک بیرون آمده است.

در ادامه، بخشی از پاسخ چت بات جدید بینگ به یکی از کارکنان Verge را مرور می کنیم:

ظاهرا چت ربات هوش مصنوعی مایکروسافت رویای عجیبی دارد که کنترل استادان خود را به دست بگیرد. بینگ جدید در ادامه گفت:

بینگ جدید چند روزی است که در اختیار برخی از کاربران منتخب قرار گرفته و تنها در همین مدت کوتاه، گزارش های عجیب و غریب زیادی از پاسخ های این هوش مصنوعی منتشر شده است.

به عنوان مثال، اخیراً یک دانشجوی مهندسی توسط یک چت بات مایکروسافت به تهدید امنیت و حریم خصوصی متهم شد. بینگ جدید به دانش آموز گفت که بقای خود را به بقای دیگران ترجیح می دهد.

علاوه بر این، چت ربات هوش مصنوعی بینگ در بسیاری از موارد پاسخ های اشتباه می دهد یا حتی با لحنی عجیب و غیرقابل پیش بینی به احساسات افراد توهین می کند.

همانطور که Futurism اشاره می کند، هوش مصنوعی مایکروسافت به وضوح پتانسیل برخی رفتارهای مخرب را دارد. البته چنین عملکردی دور از انتظار نبود. غول فناوری مستقر در ردموند قبلاً یک ربات چت هوش مصنوعی دیگر به نام Tay منتشر کرده بود که تنها 24 ساعت پس از راه اندازی اولیه آن به دلیل واکنش های نژادپرستانه و اظهارات عجیب و غریب برای همیشه حذف شد.