مزایا و خطرات هوش مصنوعی

هر چیزی در تمدن محصول هوش است، بنابراین تا زمانی که ما بتوانیم فناوری هوش مصنوعی را مفید نگه داریم، تقویت هوش انسانی ما با هوش مصنوعی می تواند به شکوفایی تمدن کمک کند.

هوش مصنوعی چیست؟

از SIRI گرفته تا خودروهای خودران، هوش مصنوعی (AI) به سرعت در حال پیشرفت است. در حالی که داستان های علمی تخیلی اغلب هوش مصنوعی را به عنوان رباتی با ویژگی های شبیه انسان نشان می دهند، هوش مصنوعی می تواند شامل هر چیزی از الگوریتم های جستجوی گوگل تا واتسون IBM تا سلاح های خودکار باشد.

هوش مصنوعی

هوش مصنوعی امروزه به درستی به عنوان هوش مصنوعی باریک (یا هوش مصنوعی ضعیف) شناخته می شود، به این دلیل که برای انجام یک کار محدود طراحی شده است (به عنوان مثال فقط تشخیص چهره یا فقط جستجوهای اینترنتی یا فقط رانندگی با ماشین). با این حال، هدف بلند مدت بسیاری از محققان ایجاد هوش مصنوعی عمومی (AGI یا AI قوی) است. در حالی که هوش مصنوعی محدود ممکن است در هر وظیفه خاصی از انسان بهتر عمل کند، مانند بازی شطرنج یا حل معادلات ، AGI تقریباً در هر کار شناختی از انسان بهتر عمل می کند.

چرا ایمنی هوش مصنوعی؟

در کوتاه مدت، هدف حفظ تأثیر هوش مصنوعی بر جامعه، تحقیقات را در بسیاری از زمینه ها، از اقتصاد و حقوق گرفته تا موضوعات فنی مانند تأیید، اعتبار، امنیت و کنترل، برمی انگیزد. در حالی که اگر لپ تاپ شما خراب شود یا هک شود ممکن است، این امر اهمیت بیشتری پیدا می کند که یک سیستم هوش مصنوعی در صورت کنترل ماشین، هواپیما، ضربان ساز، معاملات خودکار شما کاری را که شما می خواهید انجام دهد.

هوش مصنوعی

در دراز مدت، یک سوال مهم این است که اگر تلاش برای هوش مصنوعی قوی به موفقیت برسد و یک سیستم هوش مصنوعی در همه کارهای شناختی بهتر از انسان شود، چه اتفاقی می افتد. چنین سیستمی به طور بالقوه می تواند خود بهبودی بازگشتی را پشت سر بگذارد، که باعث انقلاب در هوش مصنوعی می شود و هوش انسان را پشت سر می گذارد. با ابداع فن آوری های انقلابی جدید، چنین هوشمندی می تواند به ما در ریشه کن کردن جنگ، بیماری و فقر کمک کند. هوش مصنوعی قوی ممکن است بزرگترین رویداد در تاریخ بشر باشد. با این حال، برخی از کارشناسان ابراز نگرانی کرده اند که ممکن است خطرناک نیز باشد، مگر اینکه یاد بگیریم قبل از اینکه هوش مصنوعی قوی شود، اهداف هوش مصنوعی را با اهداف خودمان همسو کنیم.

برخی هستند که می پرسند آیا هوش مصنوعی قوی به دست خواهد آمد و برخی دیگر اصرار دارند که ایجاد هوش مصنوعی فوق العاده مفید است. در FLI دوی این احتمالات را شناخته شده است، اما همچنین پتانسیل یک سیستم هوش مصنوعی را می بینیم که عمداً یا ناخواسته باعث آسیب بزرگی می شود. محققان معتقدند که تحقیقات امروز به ما کمک می کند تا در آینده برای چنین عواقب منفی بالقوه آمادگی بیشتری داشته باشیم و از مزایای هوش مصنوعی در عین اجتناب از مشکلات جلوگیری کنیم.

چگونه هوش مصنوعی می تواند خطرناک باشد؟

اکثر محققان معتقدند که هوش مصنوعی فوق العاده هوشمند بعید است که احساسات انسانی مانند عشق یا نفرت را نشان دهد و هیچ دلیلی وجود ندارد که انتظار داشته باشیم هوش مصنوعی عمداً خیرخواه یا بدخواه باشد. در عوض، هنگام بررسی اینکه چگونه هوش مصنوعی می تواند به یک خطر تبدیل شود، به احتمال زیاد دو سناریو را در نظر می گیرند:

1. هوش مصنوعی برای انجام کارهای مخرب برنامه ریزی شده است: سلاح های خودکار سیستم های هوش مصنوعی هستند که برای کشتن برنامه ریزی شده اند. در دست افراد اشتباه، این سلاح ها می توانند به راحتی باعث تلفات جمعی شوند. علاوه بر این، مسابقه تسلیحاتی هوش مصنوعی می تواند ناخواسته منجر به جنگ هوش مصنوعی شود که منجر به تلفات جمعی نیز می شود. برای جلوگیری از خنثی شدن توسط دشمن، این سلاح ها به گونه ای طراحی می شوند که به سادگی "خاموش" شوند ، بنابراین انسان ها می توانند کنترل چنین شرایطی را به طور منطقی از دست بدهند. این خطر حتی با هوش مصنوعی محدود نیز وجود دارد، اما با افزایش سطح هوش مصنوعی و خودمختاری افزایش می یابد.

هوش مصنوعی

2. هوش مصنوعی طوری برنامه ریزی شده است که بتواند کار مفیدی انجام دهد، اما روشی مخرب برای رسیدن به هدف خود ایجاد می کند: این می تواند هر زمان رخ دهد که ما نتوانیم اهداف هوش مصنوعی را به طور کامل با اهدافمان هماهنگ کنیم، که بسیار دشوار است. اگر از یک ماشین هوشمند مطیع بخواهید که شما را هر چه سریعتر به فرودگاه برساند، ممکن است شما را تحت تعقیب هلیکوپترها قرار داده و در حالت استفراغ قرار گرفته و نه آنچه را که می خواهید انجام دهید، بلکه به معنای واقعی کلمه آنچه که خواسته اید انجام دهد. اگر یک سیستم فوق هوشمند وظیفه یک پروژه مهندسی جغرافیایی جاه طلبانه را داشته باشد، ممکن است اکوسیستم ما را به عنوان یک عارضه جانبی خراب کند و تلاش های بشر برای جلوگیری از آن را تهدیدی برای برآوردن تلقی کند.

همانطور که این مثالها نشان می دهند، نگرانی در مورد هوش مصنوعی پیشرفته بدخواهی نیست بلکه شایستگی است. یک هوش مصنوعی فوق العاده عالی در دستیابی به اهداف خود بسیار خوب عمل می کند و اگر این اهداف با اهداف ما مطابقت نداشته باشد ، دچار مشکل می شویم. احتمالاً شما یک مورچه خوار شیطانی نیستید که از روی بدخواهی مورچه ها را زیر پا می گذارد، اما اگر شما مسئول پروژه انرژی سبز آبی هستید و مورچه ای در منطقه وجود دارد که سیلاب می کند، برای مورچه ها بسیار بد است. یک هدف اصلی از تحقیقات ایمنی هوش مصنوعی این است که هرگز بشریت را در موقعیت آن مورچه ها قرار ندهید.

هوش مصنوعی

منافع اخیر در ایمنی AI

استفان هاوکینگ، ایلان ماسک، استیو وزنیاک، بیل گیتس و بسیاری از نامهای بزرگ دیگر در علم و فناوری اخیراً در رسانه ها و از طریق نامه های سرگشاده در مورد خطرات ناشی از هوش مصنوعی ابراز نگرانی کرده اند و بسیاری از محققان برجسته هوش مصنوعی به آنها ملحق شده اند. چرا موضوع به طور ناگهانی در سرفصل ها قرار می گیرد؟

از آنجایی که هوش مصنوعی از هر انسانی باهوش تر است، ما هیچ راهی مطمئن برای پیش بینی نحوه رفتار آن نداریم. ما نمی توانیم از پیشرفتهای تکنولوژیکی گذشته به عنوان پایه ای استفاده کنیم زیرا هرگز چیزی را ایجاد نکرده ایم که می تواند خواسته یا ناخواسته از ما پیشی بگیرد. بهترین مثال برای آنچه ما ممکن است با آن روبرو شویم تکامل خود ماست. انسان ها اکنون سیاره را کنترل می کنند، نه به این دلیل که ما قوی ترین، سریع ترین یا بزرگترین هستیم، بلکه به این دلیل که باهوش ترین هستیم. اگر دیگر باهوش ترین نیستیم، آیا مطمئن هستیم که کنترل خود را حفظ می کنیم؟

موضع FLI این است که تا زمانی که ما در رقابت بین قدرت فزاینده فناوری و حکمت مدیریت آن پیروز شویم، تمدن ما شکوفا می شود. در مورد فناوری هوش مصنوعی، موضع FLI این است که بهترین راه برای پیروزی در آن مسابقه این نیست که مانع اولی شوید، بلکه با دوام دادن به دومی، با حمایت از تحقیقات ایمنی هوش مصنوعی.

افسانه هایی درباره خطرات هوش مصنوعی ماوراء انسانی

بسیاری از محققان هوش مصنوعی با دیدن این تیتر چشم بر هم می زنند: "استفان هاوکینگ هشدار می دهد که ظهور روبات ها ممکن است برای بشر فاجعه بار باشد." به طور معمول، این مقالات با یک ربات بد ظاهر همراه با سلاح همراه است و آنها نشان می دهند که ما باید نگران بلند شدن روبات ها و کشته شدن انسان ها باشیم.

زیرا آنها هوشیار و/یا شیطانی شده اند. از نظر ساده تر، چنین مقالاتی در واقع بسیار چشمگیر هستند، زیرا آنها به طور خلاصه سناریویی را که محققان هوش مصنوعی نگران آن نیستند خلاصه می کنند. این سناریو تا حد زیادی سه تصور غلط جداگانه را ترکیب می کند: نگرانی در مورد هوشیاری، شرارت و ربات ها.

هوش مصنوعی

برخی از روزنامه نگاران به نظر می رسد با وسواس زیادی روی ربات ها تمرکز کرده اند و بسیاری از مقالات خود را با هیولاهای فلزی با ظاهر بد و چشمهای براق قرمز تزئین می کنند. در واقع، نگرانی اصلی جنبش سودمند هوش مصنوعی نه به ربات ها بلکه به خود هوش مربوط می شود: به طور خاص، اطلاعاتی که اهداف آن با اهداف ما ناهماهنگ است. برای ایجاد مشکل برای ما، چنین هوش فرا انسانی ناهماهنگ نیازی به بدن رباتیک ندارد، صرفاً به اتصال به اینترنت نیاز دارد. این امر ممکن است سلاح هایی را توسعه دهد که ما حتی نمی توانیم آنها را درک کنیم.

مخالفت های جالب

عدم اتلاف وقت بر تصورات غلط فوق الذکر به ما اجازه می دهد بر مجادلات واقعی و جالب تمرکز کنیم که حتی کارشناسان نیز با آن مخالف هستند. چه نوع آینده ای می خواهید؟ آیا باید سلاح های مستقل کشنده بسازیم؟ دوست دارید اتوماسیون شغلی اتفاق بیفتد؟ به بچه های امروز چه توصیه ای برای شغل می دهید؟ آیا مشاغل جدید را جایگزین مشاغل قدیمی می کنید یا یک جامعه بیکار که همه از زندگی در اوقات فراغت و ثروت تولید شده توسط ماشین لذت می برند؟ در ادامه راه ، آیا دوست دارید ما زندگی فوق هوشمند ایجاد کنیم و آن را در کیهان خود گسترش دهیم؟ آیا ما ماشین های هوشمند را کنترل می کنیم یا آنها ما را کنترل می کنند؟ آیا ماشین های هوشمند جایگزین ما می شوند، با ما زندگی می کنند یا با ما ادغام می شوند؟ انسان بودن در عصر هوش مصنوعی به چه معناست؟ دوست دارید این به چه معنا باشد و چگونه می توانیم آینده را به این شکل بسازیم؟ لطفاً به گفتگو بپیوندید!



clickMe برای سفارش تبلیغات کلیک کنید...