رهاتل

حذف محدودیت ابزار چت هوش مصنوعی بینگ

حذف محدودیت ابزار چت هوش مصنوعی بینگ به گزارش رهاتل، مایکروسافت در ابتدا به سرعت ابزار چت هوش مصنوعی بینگ را محدود کرد تا از تنظیم پاسخ های نامناسب توسط آن جلوگیری نماید، اما بعد از چند روز تصمیم خویش را تغییر داد.



به گزارش رهاتل به نقل از انگجت، مایکروسافت می گوید چت های طولانی تر را ممکن می کند و این کار را با گسترش چت ها به شش نوبت در هر جلسه (از پنج نوبت) و ۶۰ چت در روز (از ۵۰ چت) شروع می کند.
این شرکت افزوده سقف روزانه تعداد چت ها بزودی به ۱۰۰ چت افزایش خواهد یافت و کاوشهای منظم دیگر در این مجموعه منظور نمی شوند. مایکروسافت امیدوار است بدین شیوه با ممکن شدن مکالمات طولانی مشکلات زیادی ایجاد نشود. در واقع این شرکت در تلاش است بازگشت "مسئولانه" به گپ های طولانی با هوش مصنوعی را ممکن کند.
این غول فناوری همینطور درحال رفع این نگرانی است که هوش مصنوعی بینگ امکان دارد در پاسخ ها بیش از اندازه پر حرفی کند. یک آزمون آتی در بینگ به شما امکان می دهد لحنی را انتخاب کنید که "دقیق" (یعنی پاسخ های کوتاه تر و دقیق تر)، "خلاقانه" (طولانی تر) یا "متعادل" باشد. ازاین رو اگر فقط به حقایق علاقه مند هستید، لازم نیست برای دریافت آنها متن زیادی را مرور کنید.
مایکروسافت قبلاً گفته بود پیشبینی نمی کرد کاربران از چت های طولانی تر Bing AI بعنوان سرگرمی و ابزاری برای شیطنت استفاده نمایند و برخی محدودیت ها تلاشی برای ایجاد تعادل و مفید کردن گفتگو با هوش مصنوعی است.

1401/12/05
10:45:01
5.0 / 5
406
تگهای خبر: فناوری , كاربر , مایكروسافت , هوش مصنوعی
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۱ بعلاوه ۳
RahaTel
rahatel.ir - حقوق مادی و معنوی سایت رهاتل محفوظ است

رهاتل

مخابرات و ارتباطات