نگرانیهای امنیتی از بکارگیری هوش مصنوعی در انگلیس
گزارشی دولتی نشان میدهد که استفاده از یک ابزار هوش مصنوعی میزبانی شده توسط آمازون برای تقویت فرایند استخدام در وزارت دفاع بریتانیا، ممکن است منجر به افشای اطلاعات شخصی پرسنل دفاعی شود. این ابزار که توسط شرکت Textio توسعه یافته است، از دادههایی مانند نام، نقش و آدرس ایمیل پرسنل دفاعی برای بهبود فرایند […]
گزارشی دولتی نشان میدهد که استفاده از یک ابزار هوش مصنوعی میزبانی شده توسط آمازون برای تقویت فرایند استخدام در وزارت دفاع بریتانیا، ممکن است منجر به افشای اطلاعات شخصی پرسنل دفاعی شود. این ابزار که توسط شرکت Textio توسعه یافته است، از دادههایی مانند نام، نقش و آدرس ایمیل پرسنل دفاعی برای بهبود فرایند نگارش آگهیهای استخدامی و جذب نیروی کار متنوعتر استفاده میکند. این دادهها بر روی Amazon Web Services (AWS) در ایالات متحده ذخیره میشوند. این امر میتواند پیامدهای نگرانکنندهای داشته باشد از جمله شناسایی هویت پرسنل دفاعی در صورت وقوع یک حادثه نقض داده.
به گزارش سرویس بین الملل رسانه اخبار فناوری تکنا به نقل از دولت انگلستان، وزارت دفاع این خطر را پایین ارزیابی کرده و اعلام کرده است که محدودیتهای امنیتی قوی توسط تامینکنندگان، از جمله Textio، AWS و Amazon GuardDuty (یک سرویس تشخیص تهدید)، اعمال شده است. (آمازون اعلام کرده است که GuardDuty یک محصول AWS است و نه یک تامینکننده مستقل). با این حال این تنها یکی از چندین ریسک شناسایی شده توسط دولت در رابطه با استفاده از ابزارهای هوش مصنوعی در بخش عمومی است. دولت بریتانیا در تلاش است تا با انتشار مجموعه اسناد جدید، شفافیت بیشتری در مورد استفاده از الگوریتمها در بخش دولتی ایجاد کند.
گوگل و متا نیز مستقیماً با دولت بریتانیا در زمینه استفاده از هوش مصنوعی در خدمات عمومی همکاری میکنند. مایکروسافت نیز سیستم Copilot خود را که مبتنی بر هوش مصنوعی است، در اختیار کارمندان دولت قرار میدهد. پت مکافادن وزیر دفتر کابینه، اوایل این ماه اعلام کرد که میخواهد دولت بیشتر مانند یک استارتآپ فکر کند. از دیگر خطرات و مزایایی که در استفاده از هوش مصنوعی توسط دولت مرکزی شناسایی شده است، میتوان به موارد زیر اشاره کرد:
- ابزار برنامهریزی درس مبتنی بر هوش مصنوعی: این ابزار که از مدل زبانی بزرگ GPT-4o OpenAI استفاده میکند، میتواند مطالب آموزشی نامناسب یا مغرضانه تولید کند. با این حال، این ابزار به معلمان کمک میکند تا زمان خود را صرفهجویی کرده و برنامههای آموزشی را به سرعت شخصیسازی کنند.
- چتبات پاسخگویی به پرسشهای مربوط به رفاه کودکان: این چتبات که در دادگاههای خانواده استفاده میشود، ممکن است توهم ایجاد کند و اطلاعات نادرست ارائه دهد. با این حال این چتبات اطلاعات را به صورت شبانهروزی ارائه میدهد و زمان انتظار برای صحبت با یک مشاور انسانی را کاهش میدهد.
- PolicyEngine وزارت خزانهداری: این سیستم از یادگیری ماشین برای مدلسازی تغییرات مالیاتی و مزایای اجتماعی با دقت بالاتر نسبت به رویکردهای موجود استفاده میکند. اما عملیات نادرست کد و دادههای ورودی نادرست میتواند منجر به نتایج غیرمنتظره شود.
- کاهش توانایی استدلال انسانی: اتکا بیش از حد به هوش مصنوعی در اولویتبندی بازرسیهای بهداشت مواد غذایی ممکن است منجر به تخریب توانایی استدلال انسانی شود. این سیستم ممکن است به طور مداوم امتیازاتی بسیار پایینتر را به برخی از انواع مراکز اختصاص دهد، اما همچنین میتواند منجر به بازرسی سریعتر مکانهایی شود که احتمال تخلف آنها بیشتر است.
کایل گفت: “فناوری پتانسیل عظیمی برای متحول کردن خدمات عمومی به سمت بهتر دارد. ما از آن برای کاهش حجم کار معوقه، صرفهجویی در هزینه و بهبود نتایج برای شهروندان در سراسر کشور استفاده خواهیم کرد. شفافیت در نحوه و چرایی استفاده بخش عمومی از ابزارهای الگوریتمی برای اطمینان از اعتماد و اثربخشی آنها بسیار مهم است.”
سایر ابزارهای هوش مصنوعی موجود در این ثبتنام گسترده شامل یک چتبات مبتنی بر هوش مصنوعی است که برای رسیدگی به پرسشهای مشتریان شبکه ریلی ملی استفاده میشود و بر اساس موارد تاریخی از سیستم ارتباط با مشتریان این سازمان آموزش دیده است. وزارت آموزش و پرورش از یک دستیار آموزشی مبتنی بر هوش مصنوعی به نام Aila استفاده میکند که از مدل GPT-4o OpenAI استفاده میکند. این ابزار که در داخل دولت ایجاد شده است، به معلمان اجازه میدهد تا برنامههای آموزشی را تولید کنند. این ابزار به گونهای طراحی شده است که به طور خودکار برنامههای آموزشی را تولید نکند. اما خطرات شناسایی شده و در حال کاهش شامل تولید مطالب آموزشی مضر یا نامناسب، سوگیری یا اطلاعات نادرست و “تزریق پیام” است – روشی که به بازیگران مخرب اجازه میدهد هوش مصنوعی را فریب دهند تا اهداف آنها را اجرا کند.
سرویس مشاوره و حمایت از کودکان و خانواده، که به دادگاههای خانواده در مورد رفاه کودکان مشاوره میدهد، از یک ربات پردازش زبان طبیعی برای پشتیبانی از یک سرویس چت وبسایت استفاده میکند که ماهانه حدود 2500 پرسش را پاسخ میدهد. یکی از خطرات شناخته شده این است که ممکن است این ربات گزارشهای نگرانی در مورد کودکان را در کنار “توهمات” و “خروجیهای نادرست” پردازش کند. این سیستم دارای نرخ موفقیت دو سوم است. این سیستم با پشتیبانی شرکتهایی مانند Genesys و Kerv، که مجدداً از Amazon Web Services استفاده میکنند، فعالیت میکند.
پیشنهاد ویژه : تعمیر کامپیوتر تهران |
پیشنهاد ویژه |
ارسال دیدگاه
مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰