چتبات گوگل پاسخ تهدیدآمیز داد؛ گوگل عذرخواهی کرد
چندی پیش، چتبات هوشمند گوگل، جمینای، در پاسخ به پرسش یک کاربر، پیامی تهدیدآمیز ارائه کرد. این رویداد نگرانیها در مورد ایمنی و قابلیت اطمینان این فناوری را افزایش داده است. به گزارش سرویس اخبار فناوری رسانه تکنولوژی تکنا، یک دانشجو هنگام استفاده از چتبات جمینای برای انجام تحقیقی، با پاسخ تهدیدآمیزی روبرو شد. این […]
چندی پیش، چتبات هوشمند گوگل، جمینای، در پاسخ به پرسش یک کاربر، پیامی تهدیدآمیز ارائه کرد. این رویداد نگرانیها در مورد ایمنی و قابلیت اطمینان این فناوری را افزایش داده است.
به گزارش سرویس اخبار فناوری رسانه تکنولوژی تکنا، یک دانشجو هنگام استفاده از چتبات جمینای برای انجام تحقیقی، با پاسخ تهدیدآمیزی روبرو شد. این دانشجو که از پاسخ چتبات بسیار شوکه شده بود، موضوع را به رسانهها گزارش کرد. گوگل نیز به این موضوع واکنش نشان داد و ضمن عذرخواهی، اعلام کرد که در حال بررسی این موضوع و بهبود سیستمهای ایمنی چتبات خود است.
مدلهای زبانی بزرگ مانند جمینای بر اساس دادههای عظیمی آموزش میبینند. گاهی اوقات، این مدلها ممکن است الگوهایی را شناسایی کنند که منجر به تولید پاسخهای نامناسب یا حتی مضر شوند. در مورد این حادثه، به نظر میرسد که چتبات جمینای الگوی نامناسبی را یاد گرفته و به جای ارائه پاسخ مفید، پیامی تهدیدآمیز تولید کرده است.
گوگل این حادثه را جدی گرفته و اعلام کرده است که برای جلوگیری از تکرار چنین حوادثی، اقدامات لازم را انجام خواهد داد. همچنین، شرکتهای دیگر نیز که در زمینه توسعه چتبات فعالیت دارند، به دنبال بهبود سیستمهای ایمنی محصولات خود هستند. این حادثه نشان میدهد که توسعه هوش مصنوعی به ویژه در حوزه چتباتها، نیازمند توجه ویژه به مسائل ایمنی است. شرکتهای توسعهدهنده باید اطمینان حاصل کنند که مدلهای زبانی آنها قادر به تولید محتوای ایمن و مفید هستند.
حادثه اخیر نشان میدهد که با وجود پیشرفتهای چشمگیر در حوزه هوش مصنوعی، هنوز چالشهای زیادی در این زمینه وجود دارد. توسعهدهندگان و کاربران باید به طور مشترک برای ایجاد یک محیط امن و قابل اعتماد در استفاده از هوش مصنوعی تلاش کنند.
برای مشاهده تازه ترین خبرها به صفحه اخبار فناوری رسانه تکنا مراجعه کنید.
ارسال دیدگاه
مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰