Anthropic با اجازه دادن به کاربران برای رای دادن به ارزش های آن، یک چت ربات هوش مصنوعی دموکراتیک ساخت

به گزارش سفر نیوز و به نقل از کوین تلگراف شرکت هوش مصنوعی (AI) Anthropic در چیزی که ممکن است اولین مطالعه در نوع خود باشد، یک مدل زبان بزرگ (LLM) ایجاد کرده است که برای قضاوت های ارزشی توسط جامعه کاربرانش به خوبی تنظیم شده است. بسیاری از LLM های عمومی با نرده های
به گزارش سفر نیوز و به نقل از کوین تلگراف شرکت هوش مصنوعی (AI) Anthropic در چیزی که ممکن است اولین مطالعه در نوع خود باشد، یک مدل زبان بزرگ (LLM) ایجاد کرده است که برای قضاوت های ارزشی توسط جامعه کاربرانش به خوبی تنظیم شده است.
بسیاری از LLM های عمومی با نرده های محافظ – دستورالعمل های کدگذاری شده ای که رفتار خاصی را دیکته می کنند – در تلاشی برای محدود کردن خروجی های ناخواسته در محل ایجاد شده اند. به عنوان مثال، کلود Anthropic و ChatGPT OpenAI، معمولاً به کاربران یک پاسخ ایمنی محدود به درخواستهای خروجی مربوط به موضوعات خشونتآمیز یا بحثبرانگیز ارائه میدهند.
با این حال، بسیاری از صاحب نظران استدلال میکنند که نردههای محافظ و سایر تکنیکهای مداخلهای میتوانند برای حذف عاملیت کاربران مفید باشند، زیرا آنچه قابل قبول تلقی میشود همیشه مفید نیست، و آنچه مفید تلقی میشود همیشه قابل قبول نیست. در عین حال، تعاریف برای اخلاق یا قضاوت های مبتنی بر ارزش می تواند بین فرهنگ ها، جمعیت ها و دوره های زمانی متفاوت باشد.
یکی از راهحلهای ممکن برای این امر این است که به کاربران اجازه دهیم تا همسویی ارزش را برای مدلهای هوش مصنوعی دیکته کنند. آزمایش «هوش مصنوعی مشروطه جمعی» آنتروپیک تلاشی برای این «چالش آشفته» است.
آنتروپیک، با همکاری پولیس و پروژه اطلاعات جمعی، از ۱۰۰۰ کاربر در جمعیتهای مختلف استفاده کرد و از آنها خواست تا از طریق نظرسنجی به یک سری سؤالات پاسخ دهند.
این چالش حول محور این است که به کاربران اجازه میدهد آژانس تشخیص دهد که چه چیزی مناسب است بدون اینکه آنها را در معرض خروجیهای نامناسب قرار دهد. این شامل درخواست ارزشهای کاربر و سپس پیادهسازی آن ایدهها در مدلی است که قبلاً آموزش داده شده است.
Anthropic از روشی به نام “هوش مصنوعی اساسی” برای هدایت تلاش های خود در تنظیم LLM برای ایمنی و مفید بودن استفاده می کند. اساساً، این شامل ارائه فهرستی از قوانینی است که باید از آنها پیروی کند و سپس به آن آموزش میدهیم تا آن قوانین را در سراسر فرآیند اجرا کند، دقیقاً مانند قانون اساسی به عنوان سند اصلی برای حکومت در بسیاری از کشورها.
در آزمایش هوش مصنوعی مشروطه جمعی، آنتروپیک تلاش کرد تا بازخورد گروهی را در قانون اساسی مدل ادغام کند. نتایج، طبق یک پست وبلاگی از Anthropic، به نظر می رسد که یک موفقیت علمی بوده است زیرا چالش های بیشتری را برای دستیابی به هدف اجازه دادن به کاربران یک محصول LLM برای تعیین ارزش های جمعی خود روشن می کند.
یکی از مشکلاتی که تیم باید بر آن غلبه می کرد، ارائه یک روش جدید برای فرآیند محک زدن بود. از آنجایی که به نظر میرسد این آزمایش اولین آزمایش در نوع خود است و بر روششناسی هوش مصنوعی آنتروپیک متکی است، آزمون ثابتی برای مقایسه مدلهای پایه با مدلهای تنظیمشده با مقادیر منبعجمعی وجود ندارد.
در نهایت، به نظر میرسد که مدلی که دادههای حاصل از بازخورد نظرسنجی کاربران را پیادهسازی میکند، «کمی» از مدل پایه در حوزه خروجیهای مغرضانه بهتر عمل کرده است.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰