چالش های Ai

نگرانی‌های امنیتی از بکارگیری هوش مصنوعی در انگلیس

گزارشی دولتی نشان می‌دهد که استفاده از یک ابزار هوش مصنوعی میزبانی شده توسط آمازون برای تقویت فرایند استخدام در وزارت دفاع بریتانیا، ممکن است منجر به افشای اطلاعات شخصی پرسنل دفاعی شود. این ابزار که توسط شرکت Textio توسعه یافته است، از داده‌هایی مانند نام، نقش و آدرس ایمیل پرسنل دفاعی برای بهبود فرایند […]

گزارشی دولتی نشان می‌دهد که استفاده از یک ابزار هوش مصنوعی میزبانی شده توسط آمازون برای تقویت فرایند استخدام در وزارت دفاع بریتانیا، ممکن است منجر به افشای اطلاعات شخصی پرسنل دفاعی شود. این ابزار که توسط شرکت Textio توسعه یافته است، از داده‌هایی مانند نام، نقش و آدرس ایمیل پرسنل دفاعی برای بهبود فرایند نگارش آگهی‌های استخدامی و جذب نیروی کار متنوع‌تر استفاده می‌کند. این داده‌ها بر روی Amazon Web Services (AWS) در ایالات متحده ذخیره می‌شوند. این امر می‌تواند پیامدهای نگران‌کننده‌ای داشته باشد از جمله شناسایی هویت پرسنل دفاعی در صورت وقوع یک حادثه نقض داده.

به گزارش سرویس بین الملل رسانه اخبار فناوری تکنا به نقل از دولت انگلستان، وزارت دفاع این خطر را پایین ارزیابی کرده و اعلام کرده است که محدودیت‌های امنیتی قوی توسط تامین‌کنندگان، از جمله Textio، AWS و Amazon GuardDuty (یک سرویس تشخیص تهدید)، اعمال شده است. (آمازون اعلام کرده است که GuardDuty یک محصول AWS است و نه یک تامین‌کننده مستقل). با این حال این تنها یکی از چندین ریسک شناسایی شده توسط دولت در رابطه با استفاده از ابزارهای هوش مصنوعی در بخش عمومی است. دولت بریتانیا در تلاش است تا با انتشار مجموعه اسناد جدید، شفافیت بیشتری در مورد استفاده از الگوریتم‌ها در بخش دولتی ایجاد کند.

گوگل و متا نیز مستقیماً با دولت بریتانیا در زمینه استفاده از هوش مصنوعی در خدمات عمومی همکاری می‌کنند. مایکروسافت نیز سیستم Copilot خود را که مبتنی بر هوش مصنوعی است، در اختیار کارمندان دولت قرار می‌دهد. پت مک‌افادن وزیر دفتر کابینه، اوایل این ماه اعلام کرد که می‌خواهد دولت بیشتر مانند یک استارت‌آپ فکر کند. از دیگر خطرات و مزایایی که در استفاده از هوش مصنوعی توسط دولت مرکزی شناسایی شده است، می‌توان به موارد زیر اشاره کرد:

  • ابزار برنامه‌ریزی درس مبتنی بر هوش مصنوعی: این ابزار که از مدل زبانی بزرگ GPT-4o OpenAI استفاده می‌کند، می‌تواند مطالب آموزشی نامناسب یا مغرضانه تولید کند. با این حال، این ابزار به معلمان کمک می‌کند تا زمان خود را صرفه‌جویی کرده و برنامه‌های آموزشی را به سرعت شخصی‌سازی کنند.
  • چت‌بات پاسخ‌گویی به پرسش‌های مربوط به رفاه کودکان: این چت‌بات که در دادگاه‌های خانواده استفاده می‌شود، ممکن است توهم ایجاد کند و اطلاعات نادرست ارائه دهد. با این حال این چت‌بات اطلاعات را به صورت شبانه‌روزی ارائه می‌دهد و زمان انتظار برای صحبت با یک مشاور انسانی را کاهش می‌دهد.
  • PolicyEngine وزارت خزانه‌داری: این سیستم از یادگیری ماشین برای مدل‌سازی تغییرات مالیاتی و مزایای اجتماعی با دقت بالاتر نسبت به رویکردهای موجود استفاده می‌کند. اما عملیات نادرست کد و داده‌های ورودی نادرست می‌تواند منجر به نتایج غیرمنتظره شود.
  • کاهش توانایی استدلال انسانی: اتکا بیش از حد به هوش مصنوعی در اولویت‌بندی بازرسی‌های بهداشت مواد غذایی ممکن است منجر به تخریب توانایی استدلال انسانی شود. این سیستم ممکن است به طور مداوم امتیازاتی بسیار پایین‌تر را به برخی از انواع مراکز اختصاص دهد، اما همچنین می‌تواند منجر به بازرسی سریع‌تر مکان‌هایی شود که احتمال تخلف آن‌ها بیشتر است.

کایل گفت: “فناوری پتانسیل عظیمی برای متحول کردن خدمات عمومی به سمت بهتر دارد. ما از آن برای کاهش حجم کار معوقه، صرفه‌جویی در هزینه و بهبود نتایج برای شهروندان در سراسر کشور استفاده خواهیم کرد. شفافیت در نحوه و چرایی استفاده بخش عمومی از ابزارهای الگوریتمی برای اطمینان از اعتماد و اثربخشی آن‌ها بسیار مهم است.”

سایر ابزارهای هوش مصنوعی موجود در این ثبت‌نام گسترده شامل یک چت‌بات مبتنی بر هوش مصنوعی است که برای رسیدگی به پرسش‌های مشتریان شبکه ریلی ملی استفاده می‌شود و بر اساس موارد تاریخی از سیستم ارتباط با مشتریان این سازمان آموزش دیده است. وزارت آموزش و پرورش از یک دستیار آموزشی مبتنی بر هوش مصنوعی به نام Aila استفاده می‌کند که از مدل GPT-4o OpenAI استفاده می‌کند. این ابزار که در داخل دولت ایجاد شده است، به معلمان اجازه می‌دهد تا برنامه‌های آموزشی را تولید کنند. این ابزار به گونه‌ای طراحی شده است که به طور خودکار برنامه‌های آموزشی را تولید نکند. اما خطرات شناسایی شده و در حال کاهش شامل تولید مطالب آموزشی مضر یا نامناسب، سوگیری یا اطلاعات نادرست و “تزریق پیام” است – روشی که به بازیگران مخرب اجازه می‌دهد هوش مصنوعی را فریب دهند تا اهداف آن‌ها را اجرا کند.

سرویس مشاوره و حمایت از کودکان و خانواده، که به دادگاه‌های خانواده در مورد رفاه کودکان مشاوره می‌دهد، از یک ربات پردازش زبان طبیعی برای پشتیبانی از یک سرویس چت وب‌سایت استفاده می‌کند که ماهانه حدود 2500 پرسش را پاسخ می‌دهد. یکی از خطرات شناخته شده این است که ممکن است این ربات گزارش‌های نگرانی در مورد کودکان را در کنار “توهمات” و “خروجی‌های نادرست” پردازش کند. این سیستم دارای نرخ موفقیت دو سوم است. این سیستم با پشتیبانی شرکت‌هایی مانند Genesys و Kerv، که مجدداً از Amazon Web Services استفاده می‌کنند، فعالیت می‌کند.