هوش مصنوعی چگونه می‌تواند ما را «منقرض» کند؟

هوش مصنوعی چگونه می‌تواند ما را «منقرض» کند؟

در این مطلب سه سناریوی مختلف را بررسی خواهیم کرد که کارمندان داخلی صنعت هوش مصنوعی را بسیار نگران کرده است.

کد خبر : ۱۳۶۳۲۵
بازدید : ۷۵

فرادید| کارشناسان نگران هستند که فناوری هوش مصنوعی موجودیت بشریت را تهدید کند. در کنار همه ستایش‌ها برای پیشرفت سریع هوش مصنوعی، از سوی برخی رهبران ارشد این صنعت، هشدار نگران کننده‌ای در خصوص پتانسیل فناوری و نتیجه معکوس آن برای بشریت وجود دارد. به نقل از نیویورک تایمز، برخی هشدار می‌دهند هوش مصنوعی می‌تواند به اندازه‌ای قدرتمند شود که اگر کاری برای کاهش سرعت آن انجام نشود، ظرف چند سال می‌تواند اختلالاتی در مقیاس اجتماعی ایجاد کند، اگرچه محققان گاهی اوقات از توضیح چگونگی وقوع آن کوتاهی می‌کنند.

به گزارش فرادید، اخیراً گروهی از کارشناسان این صنعت هشدار داده‌اند فناوری هوش مصنوعی قادر است موجودیت بشر را تهدید کند. در شرح یک‌خطی منتشرشده توسط مرکز ایمنی هوش مصنوعی آمده است: «کاهش خطر انقراض ناشی از هوش مصنوعی در کنار سایر خطرات در مقیاس اجتماعی، مانند همه‌گیری‌ها و جنگ هسته‌ای باید یک اولویت جهانی در نظر گرفته شود». این پیام نگران‌کننده و در عین حال مبهم است و هیچ جزئیاتی در مورد چگونگی وقوع آخرالزمان هوش مصنوعی ارائه نداده است. این بیانیه از سوی بیش از ۳۵۰ مدیر، محقق و مهندس بخش هوش مصنوعی، از جمله سام آلتمن، مدیر اجرایی OpenAI، جفری هینتون و یوشوآ بنجیو، دو تن از محققان برنده جایزه تورینگ معروف به «پدرخوانده‌های هوش مصنوعی» امضا شده است. 

سناریوهای خطرناک

دَن هِندریکس، مدیر مرکز ایمنی هوش مصنوعی در ایمیلی به CBS MoneyWatch نوشته است: یک سناریوی محتمل این است که هوش مصنوعی به دست بازیگران بدخواهی بیفتد که از آن برای ایجاد سلاح‌های زیستی مرگبارتری از همه‌گیری‌های طبیعی استفاده کنند یا عمداً هوش مصنوعی سرکشی را آزاد کنند که فعالانه تلاش می‌کند به بشریت آسیب برساند. هندریکس می‌افزاید اگر هوش مصنوعی سرکش به اندازه کافی هوشمند یا توانا باشد، ممکن است برای جامعه خطر جدی ایجاد کند. 

Untitled

می‌توان از هوش مصنوعی برای کمک به هکرها نیز استفاده کرد. اریک اشمیت، مدیر عامل سابق گوگل، حین سخنرانی در شورای مدیر عامل وال استریت ژورنال گفته است: «سناریوهایی وجود دارد، نه امروز، بلکه به زودی، زمانی که این سیستم‌ها می‌توانند بهره‌برداری‌های روز صفر را در مسائل سایبری پیدا کنند یا انواع جدیدی از زیست‌شناسی را کشف کنند». بهره‌برداری‌های روز صفر آسیب‌پذیری‌های امنیتی هستند که هکرها در نرم‌افزارها و سیستم‌ها پیدا می‌کنند. شاید امروز این توانایی دور از ذهن به نظر برسد، اما پیشرفت سریع هوش مصنوعی احتمال وقوع آن را بیشتر می‌کند و بهتر است تا آن زمان ما آماده باشیم و بدانیم چگونه نگذاریم افراد شرور از این فناوری‌ها سوءاستفاده کنند. 

نگرانی دیگر این است که هوش مصنوعی به خودی خود هم می‌تواند سرکش شود و وظیفه‌ای را که از ابتدا برای آن طراحی شده به شکل جدید و ناهنجاری تفسیر کند. تام چیورز، روزنامه‌نگار و نویسنده علمی می‌گوید: برای مثال، هوش مصنوعی ساخته‌شده برای خلاصی جهان از سرطان، می‌تواند تصمیم بگیرد که برای از بین بردن همه سلول‌های سرطانی، موشک‌های هسته‌ای را منفجر کند و همه را یکجا از بین ببرد. بنابراین نباید از این ترسید که هوش مصنوعی مخرب شود، بلکه باید از توانمند شدن آن ترسید. ابزارهای هوش مصنوعی فقط شماری که در عملکرد پاداش آن قرار داده‌اید به حداکثر می‌رسانند. متأسفانه به نظر می‌رسد آنچه را که ما به عنوان انسان آرزو می‌کنیم به سختی می‌تواند به تابع پاداش محصور شود، به این معنا که همه چیز می‌تواند به طرز وحشتناکی اشتباه پیش برود. 

بحث کنونی حول این محور است که فناوری هوش مصنوعی به چه روش‌هایی باید تنظیم یا مهار شود. گروه جداگانه‌ای از کارشناسان هوش مصنوعی، مدیران صنعت فناوری و دانشمندان پیشنهاد کردند مسابقه‌ی خارج از کنترل برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمندتر که هیچ‌کس حتی خالقان آن‌ها توانایی درک، پیش‌بینی یا کنترل قابل‌اعتماد آن را ندارند، کاهش یابد. آزمایشگاه‌های هوش مصنوعی دست‌کم باید شش ماه آموزش سیستم‌های هوش مصنوعی را متوقف کنند. اگر چنین نکنند، دولت‌ها باید وارد عمل شوند و این وضعیت را به تعلیق دربیاورند. 

وقتی آلتمن اوایل ماه مه با یک کمیته فرعی قوه قضائیه سنا ملاقات کرد، موافقت کرد یک آژانس دولتی باید مسئول نظارت بر پروژه‌های هوش مصنوعی باشد که عملکردشان بالاتر از مقیاس خاصی از قابلیت‌هاست. آلتمن به رهبران صنعت پیشنهاد می‌کند با هماهنگ شوند برای اطمینان از اینکه توسعه ابرهوش به گونه‌ای اتفاق می‌افتد که به ما امکان می‌دهد هم ایمنی را حفظ کنیم و هم به ادغام روان این سیستم‌ها با جامعه کمک کنیم.

دولت ایالات متحده به طور علنی در حال سنجش احتمالات و خطرات هوش مصنوعی است. به نقل از سی‌ان‌ان، دولت بایدن با مدیران ارشد اجرایی فناوری گفتگو کرده تا بر اهمیت توسعه اخلاقی و مسئولانه هوش مصنوعی تاکید کند. کاخ سفید در ماه مه از نقشه‌ی راه برای سرمایه‌گذاری‌های فدرال در تحقیق و توسعه پرده‌برداری کرد که نوآوری مسئولانه‌ی آمریکایی را ترویج می‌کند، در خدمت منافع عمومی است، از حقوق و ایمنی مردم محافظت می‌کند و حامی ارزش‌های دموکراتیک است. دولت نیز به امکان تنظیم صنعت هوش مصنوعی در آینده اشاره کرده است.

مترجم: زهرا ذوالقدر 

۰
نظرات بینندگان
اخبار مرتبط سایر رسانه ها
    سایر رسانه ها
    تازه‌‌ترین عناوین
    پربازدید