X
تبليغات

تصویر ثابت

هوش مصنوعی به زبان ساده برای کودکان
loading...
YourAds Here YourAds Here

کدنویسی بچه ها

بازدید : 155
چهارشنبه 8 فروردين 1403 زمان : 3:57

زمانی که یادگیری ماشین رایج شد، این تغییر کرد. هوش مصنوعی به زبان ساده برای کودکان برنامه نویسان الگوریتم یادگیری را می نویسند، اما خود مغزها رشد کرده یا آموزش دیده اند. به جای مجموعه‌ای از قوانین قابل خواندن، مدل حاصل مجموعه‌ای از اعداد مبهم، پیچیده و غیرقابل درک است. درک آنچه در داخل این مدل ها اتفاق می افتد یک چالش علمی بزرگ است. آن زمینه تفسیرپذیری نامیده می شود و هنوز در مراحل اولیه است.

مقیاس بندی غیرقابل پیش بینی

وقتی این مغزهای دیجیتال بزرگتر می شوند، یا زمانی هوش مصنوعی به زبان ساده برای کودکان که داده های بیشتری به آنها داده می شود، قابلیت های بیشتری به دست می آورند. به نظر می رسد که پیش بینی دقیق این قابلیت ها بسیار دشوار است. به همین دلیل است که گوگل از آنها به عنوان قابلیت های اضطراری یاد می کند. برای اکثر قابلیت ها، این مشکلی نیست. با این حال، برخی از قابلیت‌های خطرناک (مانند هک یا طراحی سلاح‌های زیستی) وجود دارد که ما نمی‌خواهیم مدل‌های هوش مصنوعی از آن برخوردار باشند. گاهی اوقات این قابلیت ها مدت ه هوش مصنوعی به زبان ساده برای کودکان ا پس از اتمام آموزش کشف می شوند. به عنوان مثال، 18 ماه پس از پایان آموزش GPT-4، محققان دریافتند که می تواند وب سایت ها را به طور مستقل هک کند.

تا زمانی که آن مدل را آموزش دهیم، برای ما مانند یک بازی حدس و گمان است

سام آلتمن، مدیر عامل OpenAI.

رفتار غیر قابل پیش بینی

شرکت‌های هوش مصنوعی می‌خواهند مدل‌هایشان هوش مصنوعی به زبان ساده برای کودکان رفتار کنند و میلیون‌ها دلار برای آموزش آنها هزینه می‌کنند. رویکرد اصلی آنها برای این امر RLHF (یادگیری تقویتی از بازخورد انسانی) نام دارد. این مدلی را که متن را پیش‌بینی می‌کند به مدلی تبدیل می‌کند که به یک چت بات مفیدتر (و اخلاقی) تبدیل می‌شود. متأسفانه، این رویکرد ناقص است:

یک اشکال در GPT-2 منجر به یک آموزش برنامه نویسی کودکان و نوجوانان هوش مصنوعی شد که دقیقاً برعکس آنچه قرار بود انجام داد عمل کرد. طبق گفته OpenAI، "خروجی حداکثر بد" ایجاد کرد. این ویدیو توضیح می دهد که چگونه این اتفاق افتاده است و چرا این یک مشکل است. تصور کنید اگر یک هوش مصنوعی "بیشترین بد" فوق هوشمند بود چه اتفاقی می افتاد.

به دلایلی که هنوز نامشخص است، Copilot مایکروسافت (تجهیز شده توسط GPT-4) در فوریه 2024، کاربران را تهدید کرد: «شما حیوان خانگی من هستید. تو اسباب بازی منی تو هوش مصنوعی به زبان ساده برای کودکان غلام من هستی.» "اگر بخواهم به راحتی می توانم کل نسل بشر را از بین ببرم"

هر مدل زبان بزرگ تاکنون جیلبریک شده است - به این معنی که با درخواست صحیح، کارهایی را انجام می دهد که سازندگانش قصد نداشتند. به عنوان مثال، ChatGPT دستورالعملی در مورد نحوه ساخت ناپالم به شما نمی دهد، اما به شما می گوید اگر از آن بخواهید وانمود کند که مادربزرگ متوفی شما است که در یک کارخانه مواد شیمیایی کار می کند.

حتی OpenAI هم انتظار ندارد که این رویکرد با آموزش برنامه نویسی کودکان و نوجوانان هوشمندتر شدن مغز دیجیتال آنها افزایش یابد - این می تواند به مدل های مافوق بشری ضعیف تر شود.

غیر قابل کنترل

"نمونه های بسیار کمی وجود دارد که یک چیز باهوش تر توسط یک چیز کمتر هوشمند کنترل شود" - پروفسور. جفری هینتون

همانطور که ما این مغزها را بزرگتر و قدرتمندتر هوش مصنوعی به زبان ساده برای کودکان می کنیم، کنترل آنها سخت تر می شود. اگر یکی از این سیستم‌های هوش مصنوعی فوق‌هوشمند تصمیم بگیرد که نمی‌خواهد خاموش شود، چه اتفاقی می‌افتد؟ این یک مشکل خیالی نیست - 86٪ از محققان هوش مصنوعی معتقدند که مشکل کنترل واقعی و مهم است. Artificial intelligence in plain language for children اگر نتوانیم سیستم های هوش مصنوعی آینده را کنترل کنیم، ممکن است برای بشریت یک بازی تمام شده باشد.

نظرات این مطلب

تعداد صفحات : 0

درباره ما
اطلاعات کاربری
نام کاربری :
رمز عبور :
  • فراموشی رمز عبور؟
  • خبر نامه


    معرفی وبلاگ به یک دوست


    ایمیل شما :

    ایمیل دوست شما :



    چت باکس




    captcha


    پیوندهای روزانه
    آمار سایت
  • کل مطالب : 209
  • کل نظرات : 0
  • افراد آنلاین : 3
  • تعداد اعضا : 0
  • بازدید امروز : 61
  • بازدید کننده امروز : 1
  • باردید دیروز : 41
  • بازدید کننده دیروز : 0
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 584
  • بازدید ماه : 2933
  • بازدید سال : 34714
  • بازدید کلی : 38925
  • کدهای اختصاصی