کد خبر : 209604
تاریخ انتشار : شنبه 29 مهر 1402 - 16:58

Anthropic با اجازه دادن به کاربران برای رای دادن به ارزش های آن، یک چت ربات هوش مصنوعی دموکراتیک ساخت

Anthropic با اجازه دادن به کاربران برای رای دادن به ارزش های آن، یک چت ربات هوش مصنوعی دموکراتیک ساخت

به گزارش سفر نیوز و به نقل از کوین تلگراف شرکت هوش مصنوعی (AI) Anthropic در چیزی که ممکن است اولین مطالعه در نوع خود باشد، یک مدل زبان بزرگ (LLM) ایجاد کرده است که برای قضاوت های ارزشی توسط جامعه کاربرانش به خوبی تنظیم شده است. بسیاری از LLM های عمومی با نرده های

Anthropic built a democratic AI chatbot by letting users vote for its values

به گزارش سفر نیوز و به نقل از کوین تلگراف شرکت هوش مصنوعی (AI) Anthropic در چیزی که ممکن است اولین مطالعه در نوع خود باشد، یک مدل زبان بزرگ (LLM) ایجاد کرده است که برای قضاوت های ارزشی توسط جامعه کاربرانش به خوبی تنظیم شده است.

بسیاری از LLM های عمومی با نرده های محافظ – دستورالعمل های کدگذاری شده ای که رفتار خاصی را دیکته می کنند – در تلاشی برای محدود کردن خروجی های ناخواسته در محل ایجاد شده اند. به عنوان مثال، کلود Anthropic و ChatGPT OpenAI، معمولاً به کاربران یک پاسخ ایمنی محدود به درخواست‌های خروجی مربوط به موضوعات خشونت‌آمیز یا بحث‌برانگیز ارائه می‌دهند.

با این حال، بسیاری از صاحب نظران استدلال می‌کنند که نرده‌های محافظ و سایر تکنیک‌های مداخله‌ای می‌توانند برای حذف عاملیت کاربران مفید باشند، زیرا آنچه قابل قبول تلقی می‌شود همیشه مفید نیست، و آنچه مفید تلقی می‌شود همیشه قابل قبول نیست. در عین حال، تعاریف برای اخلاق یا قضاوت های مبتنی بر ارزش می تواند بین فرهنگ ها، جمعیت ها و دوره های زمانی متفاوت باشد.

یکی از راه‌حل‌های ممکن برای این امر این است که به کاربران اجازه دهیم تا همسویی ارزش را برای مدل‌های هوش مصنوعی دیکته کنند. آزمایش «هوش مصنوعی مشروطه جمعی» آنتروپیک تلاشی برای این «چالش آشفته» است.

آنتروپیک، با همکاری پولیس و پروژه اطلاعات جمعی، از ۱۰۰۰ کاربر در جمعیت‌های مختلف استفاده کرد و از آنها خواست تا از طریق نظرسنجی به یک سری سؤالات پاسخ دهند.

این چالش حول محور این است که به کاربران اجازه می‌دهد آژانس تشخیص دهد که چه چیزی مناسب است بدون اینکه آنها را در معرض خروجی‌های نامناسب قرار دهد. این شامل درخواست ارزش‌های کاربر و سپس پیاده‌سازی آن ایده‌ها در مدلی است که قبلاً آموزش داده شده است.

Anthropic از روشی به نام “هوش مصنوعی اساسی” برای هدایت تلاش های خود در تنظیم LLM برای ایمنی و مفید بودن استفاده می کند. اساساً، این شامل ارائه فهرستی از قوانینی است که باید از آنها پیروی کند و سپس به آن آموزش می‌دهیم تا آن قوانین را در سراسر فرآیند اجرا کند، دقیقاً مانند قانون اساسی به عنوان سند اصلی برای حکومت در بسیاری از کشورها.

در آزمایش هوش مصنوعی مشروطه جمعی، آنتروپیک تلاش کرد تا بازخورد گروهی را در قانون اساسی مدل ادغام کند. نتایج، طبق یک پست وبلاگی از Anthropic، به نظر می رسد که یک موفقیت علمی بوده است زیرا چالش های بیشتری را برای دستیابی به هدف اجازه دادن به کاربران یک محصول LLM برای تعیین ارزش های جمعی خود روشن می کند.

یکی از مشکلاتی که تیم باید بر آن غلبه می کرد، ارائه یک روش جدید برای فرآیند محک زدن بود. از آنجایی که به نظر می‌رسد این آزمایش اولین آزمایش در نوع خود است و بر روش‌شناسی هوش مصنوعی آنتروپیک متکی است، آزمون ثابتی برای مقایسه مدل‌های پایه با مدل‌های تنظیم‌شده با مقادیر منبع‌جمعی وجود ندارد.

در نهایت، به نظر می‌رسد که مدلی که داده‌های حاصل از بازخورد نظرسنجی کاربران را پیاده‌سازی می‌کند، «کمی» از مدل پایه در حوزه خروجی‌های مغرضانه بهتر عمل کرده است.

برچسب ها :

ناموجود
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها

برای حمایت از ما بر روی این بنر کلیک کنید

مایکروسافت  شیائومی  سامسونگ  گوشی  مارک  اینتل  گواهینامه  قرمز  گورمن  تبلت  آیفون  طراحی  لایکا  تایوان  یوتیوب  دوربین  اندروید  تاشو  چین  گلکسی  پیکسل  ساعت  ای‌بی  هوشمند  سطح  جدید  شرکت  معرفی  تجاری  طرح