زمانی که یادگیری ماشین رایج شد، این تغییر کرد. هوش مصنوعی به زبان ساده برای کودکان برنامه نویسان الگوریتم یادگیری را می نویسند، اما خود مغزها رشد کرده یا آموزش دیده اند. به جای مجموعهای از قوانین قابل خواندن، مدل حاصل مجموعهای از اعداد مبهم، پیچیده و غیرقابل درک است. درک آنچه در داخل این مدل ها اتفاق می افتد یک چالش علمی بزرگ است. آن زمینه تفسیرپذیری نامیده می شود و هنوز در مراحل اولیه است.
مقیاس بندی غیرقابل پیش بینی
وقتی این مغزهای دیجیتال بزرگتر می شوند، یا زمانی هوش مصنوعی به زبان ساده برای کودکان که داده های بیشتری به آنها داده می شود، قابلیت های بیشتری به دست می آورند. به نظر می رسد که پیش بینی دقیق این قابلیت ها بسیار دشوار است. به همین دلیل است که گوگل از آنها به عنوان قابلیت های اضطراری یاد می کند. برای اکثر قابلیت ها، این مشکلی نیست. با این حال، برخی از قابلیتهای خطرناک (مانند هک یا طراحی سلاحهای زیستی) وجود دارد که ما نمیخواهیم مدلهای هوش مصنوعی از آن برخوردار باشند. گاهی اوقات این قابلیت ها مدت ه هوش مصنوعی به زبان ساده برای کودکان ا پس از اتمام آموزش کشف می شوند. به عنوان مثال، 18 ماه پس از پایان آموزش GPT-4، محققان دریافتند که می تواند وب سایت ها را به طور مستقل هک کند.
تا زمانی که آن مدل را آموزش دهیم، برای ما مانند یک بازی حدس و گمان است
سام آلتمن، مدیر عامل OpenAI.
رفتار غیر قابل پیش بینی
شرکتهای هوش مصنوعی میخواهند مدلهایشان هوش مصنوعی به زبان ساده برای کودکان رفتار کنند و میلیونها دلار برای آموزش آنها هزینه میکنند. رویکرد اصلی آنها برای این امر RLHF (یادگیری تقویتی از بازخورد انسانی) نام دارد. این مدلی را که متن را پیشبینی میکند به مدلی تبدیل میکند که به یک چت بات مفیدتر (و اخلاقی) تبدیل میشود. متأسفانه، این رویکرد ناقص است:
یک اشکال در GPT-2 منجر به یک آموزش برنامه نویسی کودکان و نوجوانان هوش مصنوعی شد که دقیقاً برعکس آنچه قرار بود انجام داد عمل کرد. طبق گفته OpenAI، "خروجی حداکثر بد" ایجاد کرد. این ویدیو توضیح می دهد که چگونه این اتفاق افتاده است و چرا این یک مشکل است. تصور کنید اگر یک هوش مصنوعی "بیشترین بد" فوق هوشمند بود چه اتفاقی می افتاد.
به دلایلی که هنوز نامشخص است، Copilot مایکروسافت (تجهیز شده توسط GPT-4) در فوریه 2024، کاربران را تهدید کرد: «شما حیوان خانگی من هستید. تو اسباب بازی منی تو هوش مصنوعی به زبان ساده برای کودکان غلام من هستی.» "اگر بخواهم به راحتی می توانم کل نسل بشر را از بین ببرم"
هر مدل زبان بزرگ تاکنون جیلبریک شده است - به این معنی که با درخواست صحیح، کارهایی را انجام می دهد که سازندگانش قصد نداشتند. به عنوان مثال، ChatGPT دستورالعملی در مورد نحوه ساخت ناپالم به شما نمی دهد، اما به شما می گوید اگر از آن بخواهید وانمود کند که مادربزرگ متوفی شما است که در یک کارخانه مواد شیمیایی کار می کند.
حتی OpenAI هم انتظار ندارد که این رویکرد با آموزش برنامه نویسی کودکان و نوجوانان هوشمندتر شدن مغز دیجیتال آنها افزایش یابد - این می تواند به مدل های مافوق بشری ضعیف تر شود.
غیر قابل کنترل
"نمونه های بسیار کمی وجود دارد که یک چیز باهوش تر توسط یک چیز کمتر هوشمند کنترل شود" - پروفسور. جفری هینتون
همانطور که ما این مغزها را بزرگتر و قدرتمندتر هوش مصنوعی به زبان ساده برای کودکان می کنیم، کنترل آنها سخت تر می شود. اگر یکی از این سیستمهای هوش مصنوعی فوقهوشمند تصمیم بگیرد که نمیخواهد خاموش شود، چه اتفاقی میافتد؟ این یک مشکل خیالی نیست - 86٪ از محققان هوش مصنوعی معتقدند که مشکل کنترل واقعی و مهم است. Artificial intelligence in plain language for children اگر نتوانیم سیستم های هوش مصنوعی آینده را کنترل کنیم، ممکن است برای بشریت یک بازی تمام شده باشد.