چرا مایکروسافت از هوش مصنوعی خودآگاه میترسد؟
مصطفی سلیمان مدیرعامل بخش هوش مصنوعی مایکروسافت هشدار میدهد که نزدیک شدن به هوش مصنوعیای که خودآگاه به نظر میرسد، یک مشکل بزرگ است. شرکتهای هوش مصنوعی معمولاً در ستایش از ساختههای خود، این الگوریتمهای پیچیده را چنان توصیف میکنند که گویی کاملاً زنده و آگاه هستند. به گزارش سرویس جامعه رسانه اخبار فناوری تکنا، […]
مصطفی سلیمان مدیرعامل بخش هوش مصنوعی مایکروسافت هشدار میدهد که نزدیک شدن به هوش مصنوعیای که خودآگاه به نظر میرسد، یک مشکل بزرگ است. شرکتهای هوش مصنوعی معمولاً در ستایش از ساختههای خود، این الگوریتمهای پیچیده را چنان توصیف میکنند که گویی کاملاً زنده و آگاه هستند.
به گزارش سرویس جامعه رسانه اخبار فناوری تکنا، در حال حاضر هیچ مدرکی دال بر واقعیت این امر وجود ندارد اما سلیمان هشدار میدهد که حتی ترویج باور به هوش مصنوعی خودآگاه نیز میتواند پیامدهای بسیار بدی به دنبال داشته باشد. سلیمان استدلال میکند که هوش مصنوعیِ به ظاهر خودآگاه (SCAI) ممکن است به زودی چنان متقاعدکننده عمل و صحبت کند که تعداد فزایندهای از کاربران نتوانند توهم را از واقعیت تشخیص دهند. او اضافه میکند که هوش مصنوعی به سرعت در حال تبدیل شدن به ابزاری است که از نظر عاطفی به اندازهای متقاعدکننده است که مردم را فریب دهد تا باور کنند هوشمند است. این ابزار میتواند علائم بیرونی آگاهی مانند حافظه، انعکاس احساسی و حتی همدلی را به گونهای تقلید کند که مردم تمایل پیدا کنند با آن مانند موجودی هوشمند رفتار کنند. به عقیده سلیمان، وقتی چنین اتفاقی بیفتد، اوضاع آشفته خواهد شد. او مینویسد که ظهور هوش مصنوعی به ظاهر خودآگاه، اجتنابناپذیر و نامطلوب است و به همین دلیل ما به چشماندازی برای هوش مصنوعی نیاز داریم که بتواند پتانسیل خود را به عنوان یک همراه مفید به ثمر برساند، بدون اینکه قربانی توهمات آن شویم.
گرچه این مسئله ممکن است برای یک فرد عادی که فقط میخواهد هوش مصنوعی در نوشتن ایمیلها یا برنامهریزی شام به او کمک کند، مشکل به نظر نرسد، اما سلیمان معتقد است که این موضوع به یک مشکل اجتماعی تبدیل خواهد شد. انسانها همیشه در تشخیص اصیل بودن یا ساختگی بودن یک چیز خوب عمل نمیکنند. تکامل و تربیت، اکثر ما را به این سمت سوق داده است که باور کنیم چیزی که به نظر میرسد گوش میدهد، میفهمد و پاسخ میدهد، به اندازه ما هوشیار است. هوش مصنوعی میتواند تمام این معیارها را بدون هوشمند بودن رعایت کند و ما را فریب دهد تا به چیزی دچار شویم که به آن روانپریشی هوش مصنوعی میگویند. بخشی از مشکل ممکن است این باشد که اصطلاح هوش مصنوعی که در حال حاضر توسط شرکتها به آن اشاره میشود، همان نام را دارد اما هیچ ارتباطی با ماشینهای هوشمند و خودآگاهی که در طول صد سال گذشته در داستانهای علمی-تخیلی به تصویر کشیده شدهاند، ندارد. سلیمان به موارد فزایندهای اشاره میکند که در آنها کاربران پس از تعاملات طولانی با چتباتها، باورهای خیالی پیدا میکنند. از این رو، او تصویری ویرانشهری از زمانی ارائه میدهد که در آن تعداد کافی از مردم فریب میخورند تا از حقوق شهروندی هوش مصنوعی حمایت کنند و به مسائل فوری و واقعی پیرامون این فناوری بیتوجهی نمایند.
سلیمان مینویسد که نگرانی اصلی او این است که بسیاری از مردم به توهم هوش مصنوعی به عنوان موجودات آگاه چنان قوی باور پیدا خواهند کرد که به زودی از حقوق آن، رفاه مدلها و حتی حقوق شهروندی هوش مصنوعی دفاع خواهند کرد. او این تحول را یک چرخش خطرناک در پیشرفت هوش مصنوعی میداند که شایسته توجه فوری ماست. هرچند این نگرانی شبیه به یک موضوع علمی-تخیلی و اغراقآمیز به نظر میرسد، اما سلیمان معتقد است که ما هنوز برای مقابله با آن آمادگی نداریم. او پیشبینی میکند که سیستمهای سایک که از مدلهای زبان بزرگ به همراه گفتار گویا، حافظه و تاریخچه چت استفاده میکنند، ممکن است ظرف چند سال آینده ظاهر شوند. این سیستمها نه تنها از سوی غولهای فناوری با بودجههای تحقیقاتی میلیارد دلاری، بلکه از سوی هر کسی که یک رابط برنامهنویسی کاربردی و یک یا دو پرامپت خوب دارد، عرضه خواهند شد. سلیمان خواهان ممنوعیت هوش مصنوعی نیست، بلکه از صنعت آن میخواهد که از زبانی که توهم آگاهی ماشینی را تغذیه میکند، دوری کند. او نمیخواهد شرکتها به چتباتهای خود خصلتهای انسانی ببخشند یا اینطور القا کنند که محصول واقعاً مردم را درک میکند یا به آنها اهمیت میدهد.
این یک لحظه قابلتوجه برای سلیمان است که یکی از بنیانگذاران دیپمایند و اینفلکشن ایآی است. کار او به طور خاص در اینفلکشن به ساخت یک چتبات هوش مصنوعی منجر شد که بر همدلی شبیهسازیشده و همراهی تأکید داشت، و کارش در مایکروسافت در مورد کوپایلوت نیز به پیشرفتهایی در تقلید هوش هیجانی منجر شده است. با این حال، او تصمیم گرفته است که یک خط واضح بین هوش هیجانی مفید و دستکاری عاطفی احتمالی ترسیم کند. او میخواهد مردم به یاد داشته باشند که محصولات هوش مصنوعی کنونی در واقع فقط مدلهای هوشمند تشخیص الگو با روابط عمومی خوب هستند. سلیمان مینویسد همانطور که باید هوش مصنوعیای تولید کنیم که تعامل با انسانها و دنیای واقعی را در اولویت قرار دهد، باید هوش مصنوعیای بسازیم که همیشه خود را به عنوان یک هوش مصنوعی معرفی کند و سودمندی را به حداکثر برساند و نشانههای هوشیاری را به حداقل برساند. او اضافه میکند به جای شبیهسازی هوشیاری، باید بر روی ساخت هوش مصنوعیای تمرکز کنیم که از آن ویژگیها اجتناب کند؛ هوش مصنوعیای که ادعا نمیکند تجربهها، احساسات یا عواطفی مانند شرم، گناه، حسادت، تمایل به رقابت و غیره را دارد. همچنین نباید با ادعای رنج بردن یا تمایل به زندگی مستقل و فراتر از ما، مدار همدلی انسان را فعال کند. سلیمان خواستار وضع تمهیداتی برای جلوگیری از مشکلات اجتماعی ناشی از ارتباط عاطفی مردم با هوش مصنوعی است. او معتقد است خطر واقعی از هوش مصنوعی پیشرفته این نیست که ماشینها بیدار شوند، بلکه این است که ما فراموش کنیم آنها بیدار نشدهاند.
| پیشنهاد ویژه : تعمیر کامپیوتر |
| پیشنهاد ویژه : خرید بلیط هواپیما فلای تودی |









ارسال دیدگاه
مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰