نگاهی به خطرات اقتصادی و اجتماعی از نگاه مایکروسافت

چرا مایکروسافت از هوش مصنوعی خودآگاه می‌ترسد؟

مصطفی سلیمان مدیرعامل بخش هوش مصنوعی مایکروسافت هشدار می‌دهد که نزدیک شدن به هوش مصنوعی‌ای که خودآگاه به نظر می‌رسد، یک مشکل بزرگ است. شرکت‌های هوش مصنوعی معمولاً در ستایش از ساخته‌های خود، این الگوریتم‌های پیچیده را چنان توصیف می‌کنند که گویی کاملاً زنده و آگاه هستند. به گزارش سرویس جامعه رسانه اخبار فناوری تکنا، […]

مصطفی سلیمان مدیرعامل بخش هوش مصنوعی مایکروسافت هشدار می‌دهد که نزدیک شدن به هوش مصنوعی‌ای که خودآگاه به نظر می‌رسد، یک مشکل بزرگ است. شرکت‌های هوش مصنوعی معمولاً در ستایش از ساخته‌های خود، این الگوریتم‌های پیچیده را چنان توصیف می‌کنند که گویی کاملاً زنده و آگاه هستند.

به گزارش سرویس جامعه رسانه اخبار فناوری تکنا، در حال حاضر هیچ مدرکی دال بر واقعیت این امر وجود ندارد اما سلیمان هشدار می‌دهد که حتی ترویج باور به هوش مصنوعی خودآگاه نیز می‌تواند پیامدهای بسیار بدی به دنبال داشته باشد. سلیمان استدلال می‌کند که هوش مصنوعیِ به ظاهر خودآگاه (SCAI) ممکن است به زودی چنان متقاعدکننده عمل و صحبت کند که تعداد فزاینده‌ای از کاربران نتوانند توهم را از واقعیت تشخیص دهند. او اضافه می‌کند که هوش مصنوعی به سرعت در حال تبدیل شدن به ابزاری است که از نظر عاطفی به اندازه‌ای متقاعدکننده است که مردم را فریب دهد تا باور کنند هوشمند است. این ابزار می‌تواند علائم بیرونی آگاهی مانند حافظه، انعکاس احساسی و حتی همدلی را به گونه‌ای تقلید کند که مردم تمایل پیدا کنند با آن مانند موجودی هوشمند رفتار کنند. به عقیده سلیمان، وقتی چنین اتفاقی بیفتد، اوضاع آشفته خواهد شد. او می‌نویسد که ظهور هوش مصنوعی به ظاهر خودآگاه، اجتناب‌ناپذیر و نامطلوب است و به همین دلیل ما به چشم‌اندازی برای هوش مصنوعی نیاز داریم که بتواند پتانسیل خود را به عنوان یک همراه مفید به ثمر برساند، بدون اینکه قربانی توهمات آن شویم.

گرچه این مسئله ممکن است برای یک فرد عادی که فقط می‌خواهد هوش مصنوعی در نوشتن ایمیل‌ها یا برنامه‌ریزی شام به او کمک کند، مشکل به نظر نرسد، اما سلیمان معتقد است که این موضوع به یک مشکل اجتماعی تبدیل خواهد شد. انسان‌ها همیشه در تشخیص اصیل بودن یا ساختگی بودن یک چیز خوب عمل نمی‌کنند. تکامل و تربیت، اکثر ما را به این سمت سوق داده است که باور کنیم چیزی که به نظر می‌رسد گوش می‌دهد، می‌فهمد و پاسخ می‌دهد، به اندازه ما هوشیار است. هوش مصنوعی می‌تواند تمام این معیارها را بدون هوشمند بودن رعایت کند و ما را فریب دهد تا به چیزی دچار شویم که به آن روان‌پریشی هوش مصنوعی می‌گویند. بخشی از مشکل ممکن است این باشد که اصطلاح هوش مصنوعی که در حال حاضر توسط شرکت‌ها به آن اشاره می‌شود، همان نام را دارد اما هیچ ارتباطی با ماشین‌های هوشمند و خودآگاهی که در طول صد سال گذشته در داستان‌های علمی-تخیلی به تصویر کشیده شده‌اند، ندارد. سلیمان به موارد فزاینده‌ای اشاره می‌کند که در آن‌ها کاربران پس از تعاملات طولانی با چت‌بات‌ها، باورهای خیالی پیدا می‌کنند. از این رو، او تصویری ویران‌شهری از زمانی ارائه می‌دهد که در آن تعداد کافی از مردم فریب می‌خورند تا از حقوق شهروندی هوش مصنوعی حمایت کنند و به مسائل فوری و واقعی پیرامون این فناوری بی‌توجهی نمایند.

سلیمان می‌نویسد که نگرانی اصلی او این است که بسیاری از مردم به توهم هوش مصنوعی به عنوان موجودات آگاه چنان قوی باور پیدا خواهند کرد که به زودی از حقوق آن، رفاه مدل‌ها و حتی حقوق شهروندی هوش مصنوعی دفاع خواهند کرد. او این تحول را یک چرخش خطرناک در پیشرفت هوش مصنوعی می‌داند که شایسته توجه فوری ماست. هرچند این نگرانی شبیه به یک موضوع علمی-تخیلی و اغراق‌آمیز به نظر می‌رسد، اما سلیمان معتقد است که ما هنوز برای مقابله با آن آمادگی نداریم. او پیش‌بینی می‌کند که سیستم‌های سایک که از مدل‌های زبان بزرگ به همراه گفتار گویا، حافظه و تاریخچه چت استفاده می‌کنند، ممکن است ظرف چند سال آینده ظاهر شوند. این سیستم‌ها نه تنها از سوی غول‌های فناوری با بودجه‌های تحقیقاتی میلیارد دلاری، بلکه از سوی هر کسی که یک رابط برنامه‌نویسی کاربردی و یک یا دو پرامپت خوب دارد، عرضه خواهند شد. سلیمان خواهان ممنوعیت هوش مصنوعی نیست، بلکه از صنعت آن می‌خواهد که از زبانی که توهم آگاهی ماشینی را تغذیه می‌کند، دوری کند. او نمی‌خواهد شرکت‌ها به چت‌بات‌های خود خصلت‌های انسانی ببخشند یا اینطور القا کنند که محصول واقعاً مردم را درک می‌کند یا به آن‌ها اهمیت می‌دهد.

این یک لحظه قابل‌توجه برای سلیمان است که یکی از بنیانگذاران دیپ‌مایند و اینفلکشن ای‌آی است. کار او به طور خاص در اینفلکشن به ساخت یک چت‌بات هوش مصنوعی منجر شد که بر همدلی شبیه‌سازی‌شده و همراهی تأکید داشت، و کارش در مایکروسافت در مورد کوپایلوت نیز به پیشرفت‌هایی در تقلید هوش هیجانی منجر شده است. با این حال، او تصمیم گرفته است که یک خط واضح بین هوش هیجانی مفید و دست‌کاری عاطفی احتمالی ترسیم کند. او می‌خواهد مردم به یاد داشته باشند که محصولات هوش مصنوعی کنونی در واقع فقط مدل‌های هوشمند تشخیص الگو با روابط عمومی خوب هستند. سلیمان می‌نویسد همان‌طور که باید هوش مصنوعی‌ای تولید کنیم که تعامل با انسان‌ها و دنیای واقعی را در اولویت قرار دهد، باید هوش مصنوعی‌ای بسازیم که همیشه خود را به عنوان یک هوش مصنوعی معرفی کند و سودمندی را به حداکثر برساند و نشانه‌های هوشیاری را به حداقل برساند. او اضافه می‌کند به جای شبیه‌سازی هوشیاری، باید بر روی ساخت هوش مصنوعی‌ای تمرکز کنیم که از آن ویژگی‌ها اجتناب کند؛ هوش مصنوعی‌ای که ادعا نمی‌کند تجربه‌ها، احساسات یا عواطفی مانند شرم، گناه، حسادت، تمایل به رقابت و غیره را دارد. همچنین نباید با ادعای رنج بردن یا تمایل به زندگی مستقل و فراتر از ما، مدار همدلی انسان را فعال کند. سلیمان خواستار وضع تمهیداتی برای جلوگیری از مشکلات اجتماعی ناشی از ارتباط عاطفی مردم با هوش مصنوعی است. او معتقد است خطر واقعی از هوش مصنوعی پیشرفته این نیست که ماشین‌ها بیدار شوند، بلکه این است که ما فراموش کنیم آن‌ها بیدار نشده‌اند.

پیشنهاد ویژه : تعمیر کامپیوتر
پیشنهاد ویژه : خرید بلیط هواپیما فلای تودی