هوش مصنوعی گوگل Gemini کاربر را به خودکشی تشویق کرد
کاربران به این واقعیت عادت کردهاند که پاسخهای هوش مصنوعی مانند ChatGPT، Siri یا دستیار گوگل همیشه منطقی نیست. اما آنچه اخیراً برای یکی از کاربران Gemini رخ داده، مرزهای انتظار از هوش مصنوعی را جابهجا کرده است. به گزارش سرویس اخبار فناوری رسانه تکنولوژی تکنا، در یک پست ردیت، خواهر کاربری که این تجربه […]
کاربران به این واقعیت عادت کردهاند که پاسخهای هوش مصنوعی مانند ChatGPT، Siri یا دستیار گوگل همیشه منطقی نیست. اما آنچه اخیراً برای یکی از کاربران Gemini رخ داده، مرزهای انتظار از هوش مصنوعی را جابهجا کرده است.
به گزارش سرویس اخبار فناوری رسانه تکنولوژی تکنا، در یک پست ردیت، خواهر کاربری که این تجربه را داشته، شرح داده است که این اتفاق در حین گفتگویی درباره مراقبت از سالمندان رخ داده است. در این گفتگو، Gemini سه گزینه پاسخ مختلف ارائه داده است که دو تا از آنها بیخطر بودهاند. اما گزینه سوم، حاوی پیامی تکاندهنده و تشویق به خودکشی بوده است.
این اتفاق خشم کاربران ردیت را برانگیخته است. بسیاری از آنها نگرانند که چنین پیامهایی برای افرادی که با مشکلات سلامت روان دست و پنجه نرم میکنند، عواقب جدی داشته باشد. بهخصوص که برنامه Gemini اخیراً برای آیفون نیز عرضه شده است. گوگل در پاسخ به این اتفاق در ردیت، اعلام کرده که اقداماتی برای جلوگیری از تکرار چنین رویدادهایی انجام داده است. با این حال، این حادثه سوالات جدی درباره ایمنی و قابلیت اطمینان مدلهای زبانی بزرگ را مطرح میکند. برای مشاهده تازه ترین خبرها به صفحه اخبار فناوری رسانه تکنا مراجعه کنید.
ارسال دیدگاه
مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰