3 راه برای مدیریت مسئولانه سیستم های چند عاملی
انتشار: دی 01، 1403
بروزرسانی: 20 تیر 1404

3 راه برای مدیریت مسئولانه سیستم های چند عاملی


از آنجایی که سیستم های هوش مصنوعی خودمختار مورد توجه قرار می گیرند، ،ب وکارها به طور فزاینده ای به شبکه هایی از عوامل متقابل برای هدایت فرآیندها و تصمیم گیری های پیچیده وابسته هستند. اما با ظهور این «تیم های» هوش مصنوعی، سؤالاتی در مورد بهترین روش برای اطمینان از عملکرد مسئولانه، اخلاقی و مؤثر مطرح می شود.

همانطور که شرکت ها بر تیم های انس، حکومت می کنند، سیستم های مستقل نیز به چارچوب هایی برای مدیریت ریسک، انطباق و عملکرد نیاز دارند. اما شبکه های کارگزاران وابسته به هم و خودراهبر به چیزی بیش از مدل های حاکمیت سنتی نیاز دارند. ما سه استراتژی را برای حاکمیت سیستم های چند عامله (MAS) و چالش ها و فرصت هایی که به ارمغان می آورند را بررسی خواهیم کرد.

تعاملات یک عامل در مقابل چند عامل

Agentforce تجربه مشتری ezCater را متحول خواهد کرد

کشف کنید که چگونه Agentforce خدمات مشتری را برای ساده ، سفارش غذا برای محل کار خودکار می کند.

1. گسترش اصول حاکمیت تک عاملی به سیستم های چند عاملی

هنگام اداره یک عامل مستقل، ،ب و کارها معمولاً چندین حفاظ را اجرا می کنند، از جمله:

  • فیلتر ، ورودی های ناامن برای به حداقل رساندن تعاملات مضر
  • حلقه های بازخورد انس،مانند یادگیری تقویتی، برای همسو ، رفتار عامل با ارزش های سازم،
  • آزمایش خصمانهمانند تیم قرمز، تا نمایندگان را در برابر چالش های واقعی انعطاف پذیر کند
  • کنترل های ،وجی برای اطمینان از حفاظت های پس از پردازش قبل از رسیدن نتایج به کاربران نهایی

این اقدامات برای عوامل فردی به خوبی کار می کنند، اما می توانند به سرعت در یک محیط چند عاملی تحت فشار قرار گیرند. در MAS، عوامل برای دستیابی به اه، به طور مش، هماهنگ می شوند. این اغلب رفتارهای جدید و غیرقابل پیش بینی ایجاد می کند که برای روش های حاکمیت تک عاملی چالش برانگیز است.

نظارت بر عوامل فردی در یک سیستم چند عاملی کافی نیست. ما باید به نحوه تعامل آنها با یکدیگر توجه کنیم. این نیازمند چارچوب هایی است که می توانند رفتار جمعی را مدیریت کنند تیم های مختلف هوش مصنوعی.

2. طراحی حاکمیت برای پیچیدگی چند عاملی

در MAS، زم، که عوامل با هم ارتباط برقرار می کنند، همکاری می کنند و تصمیم می گیرند، پیچیدگی افزایش می یابد. این هماهنگی می تواند اثرات پیش بینی نشده یا «رفتارهای اضطراری» ایجاد کند که پیش بینی یا کنترل کامل ،وجی های سیستم را دشوار می کند. ،ب وکارها به مدل های حاکمیتی نیاز دارند که بتوانند به صورت پویا با تعاملات در حال تکامل عامل سازگار شوند.

در اینجا چند روش برای مدیریت پیچیدگی چند عاملی وجود دارد:

  • رویکردهای حاکمیت لایه ای: اتخاذ یک مدل ساندویچی از پیش فیلترها، نظارت در زمان واقعی، و بررسی های پس از فرآیند می تواند شبکه های ایمنی متعددی را فراهم کند، اما با تنظیماتی برای تنظیمات چند عاملی.
  • چارچوب های قانون اساسی: ایجاد یک قانون اساسی برای MAS می تواند قو،ن و اصول راهنما را برای تعاملات مشخص کند، مانند دستورالعمل های حاکم بر هوش مصنوعی اخلاقی. اینها ممکن است شامل محدودیت هایی در استقلال نماینده در سناریوهای پرمخاطره یا قو،ن پیرامون همکاری و اشتراک تصمیم باشد.
  • ماموران نگهبان خودکار: استقرار عوامل ثانویه می تواند یک لایه نظارت اضافی را اضافه کند. این عوامل می توانند تعاملات دیگر عامل ها را برای ال،ای غیرمعمول یا محتوای مضر نظارت کنند. هنگامی که خطرات به وجود می آیند، عوامل نگهبان می توانند مسائل را به یک عامل انس، تشدید کنند. این به مق، با خطرات کمک می کند، در حالی که عامل انس، را آزاد می کند تا روی کارهای مهم تر تمرکز کند.

با این روش ها، شرکت ها می توانند بهتر از پیچیدگی ذاتی حاکمیت MAS عبور کنند. با این حال، حکمر، مؤثر همچنین ما را م،م می کند که در مورد تعاملات کارگزار از منظر اجتماعی فکر کنیم.

با Agentforce Activator، عوامل را سریعتر مستقر کنید

با کارشناسان Agentforce برای سفارشی سازی، ساخت و استقرار عوامل هوش مصنوعی مستقل کار کنید.

3. بکارگیری چارچوب های اجتماعی برای حاکمیت بر همکاری هوش مصنوعی

در سازمان های انس،، حکمر، به تعریف نقش ها و ایجاد هنجارهایی کمک می کند که چارچوب اجتماعی را تشکیل می دهند. سیستم های چند عاملی می توانند از a بهره مند شوند ساخت و ساز مشابه. به ،وان مثال، عوامل مختلف می توانند به ،وان "متخصص" یا "اعضای تیم" در یک سلسله مراتب یا شبکه عمل کنند.

برخی از راه های ساختار حکومت MAS با در نظر گرفتن چارچوب های اجتماعی عبارتند از:

  • حکمر، مبتنی بر نقش: نقش های حاکمیتی را به عوامل بر اساس کارکرد آنها اختصاص دهید. این شبیه نحوه ای است که تیم های انس، نقش هایی مانند مدیران و مشارکت کنندگان را تعیین کرده اند. در MAS، یک عامل ممکن است بر کنترل کیفیت نظارت کند در حالی که دیگری امنیت داده ها را در تیم مدیریت می کند.
  • حکومت فراگیر جامعه: ایجاد حلقه های بازخورد از کاربران نهایی و ذینفعان در فرآیند طراحی. این می تواند به اطمینان حاصل شود که ،وجی های عامل ها با نیازها و انتظارات کاربر مطابقت دارند. عوامل با توانایی ،یب دیدگاه های کاربر حتی ممکن است نتایج کلی و پایبندی به ارزش ها را بهبود بخشند.
  • مدل های نظارت سلسله مراتبی: سازماندهی عوامل با ایجاد ردیف. به ،وان مثال، یک نماینده "فرماندار" سطح بالاتر می تواند کل گردش کار را برای نمایندگی های خدمات مشتری و مالی مدیریت و پیگیری کند. نماینده فرماندار ممکن است بر تعاملات بین عوامل خدماتی و مالی نظارت کند. سپس می تواند مناطقی را شناسایی کند که در آنها هماهنگی یا مداخله بیشتر برای دستیابی به اه، شرکت ضروری است.

استفاده از مدل های اجتماعی در حکمر، MAS یک رویکرد انسان محور را معرفی می کند و تضمین می کند که سیستم های چند عاملی با نیازهای سازم، در دنیای واقعی هماهنگ هستند.

اسکرین شات 07/11/2024 در 11.42.28 PM.png
پلت فرم چند عاملی و چارچوب حکومتی

ایجاد حاکمیت کل نگر برای سیستم های چند عاملی مستقل

MAS به طور فزاینده ای برای فرآیندهای تجاری مرکزی می شود. بنابراین، شرکت ها باید در مورد حاکمیت از پایه تجدید نظر کنند. ساختارهای سنتی، موثر برای عوامل منفرد، نیاز به گسترش دارند. تنها در این صورت است که آنها می توانند چالش های منحصر به فرد سیستم های هوش مصنوعی را که به ،وان شبکه های مستقل و مش، عمل می کنند، برطرف کنند. حکمر، باید برای اطمینان از همسویی هوش مصنوعی با نظارت انس،، ارزش ها و اه، سازم، سازگار شود.

با گسترش اصول حاکمیت، طراحی برای پیچیدگی، و به کارگیری چارچوب های اجتماعی، ،ب و کارها می توانند مدل های حکومتی قوی برای MAS ایجاد کنند. ما در دوره ای از فرآیندهای عامل محور هستیم. اکنون زمان ادغام حکمر، به ،وان یک سیستم اساسی و کل نگر در تمام سطوح همکاری هوش مصنوعی است. این یک حوزه تحقیقات فعال و تمرکز پیاده سازی برای تحقیقات هوش مصنوعی Salesforce است (مثلاً با AgentLite پلتفرم چند عاملی)، و تمرین هوش مصنوعی جه، ما (با کارگاه های رو به رو مشتری در مورد محافظ ها و ریسک و/یا اصول تمرین).

قدم بعدی را با سیستم های چند عاملی بردارید

چارچوب های موجود را ارزیابی کنید برای مقیاس پذیری و تن، با MAS.

  • اسناد معماری و حاکمیتی را جمع آوری کنید
  • منطق را دوباره بررسی کنید و ببینید که آیا مرتبط است یا خیر
  • درک کنید که این چگونه با استراتژی های هوش مصنوعی سازم، مطابقت دارد

ارزیابی های ریسک «قبل از مرگ» را اجرا کنید شناسایی ریسک های کلیدی و استراتژی های کاهش.

  • اعضای تیم را برای شناسایی خطرات جمع آوری کنید و در مورد کاهش آن فکر کنید

همسویی اصول تا تمرین را ایجاد کنید به طوری که حاکمیت به وضوح ارزش های سازم، را منع، می کند.

  • اصول و ارزش های سازم، را مرور کنید
  • اطمینان حاصل کنید که آنها در طراحی نرده محافظ و معماری کلی در نظر گرفته شده اند

از کوچک شروع کنید و برای مدیریت پیچیدگی در هر مرحله رشد، با تفکر گسترش دهید.

  • Agentforce را با استفاده محدود اجرا کنید
  • نقاط قوت، ضعف و تفاوت های ظریف را از طریق آزمایش بررسی کنید
  • بر این اساس، طرح ،رنر چند عاملی را به روز کنید
  • عامل انس، مسئول در فرآیند را شناسایی کنید

حکمر، برای استفاده ایمن و اخلاقی از سیستم های چند عاملی برای ایجاد سیستم های مستقل و هوشمند کلیدی است. ما با هم می تو،م آینده ای را ایجاد کنیم که در آن سیستم های هوشمند دنیای ما را متحول کرده و بر اساس اعتماد ساخته شده اند.

Agentforce را کشف کنید

Agentforce پشتیب، دائمی را برای کارمندان یا مشتریان فراهم می کند. بیاموزید که چگونه Agentforce امروز می تواند به شرکت شما کمک کند.

جود اومه

جود اومهمدیر استراتژی ،ب و کار هوش مصنوعی

جود یک استراتژیست ،ب و کار هوش مصنوعی در تمرین هوش مصنوعی جه، Salesforce است، که در آن به مشتریان در راهبرد تحول آفرین هوش مصنوعی و نقشه راه کمک می کند تا هوش مصنوعی را به شیوه ای مسئولانه پیاده سازی کنند. او یک مشاور قابل اعتماد و بینا است که می تواند نقطه ها را به شیوه ای گرم و مهربان به هم وصل کند.ادامه مطلب

بیشتر توسط جود
دکتر شلبی هاینکه

دکتر شلبی هاینکهمدیر ارشد، پژوهش

شلبی یک مدیر ارشد تحقیقات هوش مصنوعی است که تیمی پویا را رهبری می کند که مرزهای نوآوری هوش مصنوعی را پیش می برد. شلبی با تمرکز بر عوامل هوش مصنوعی، هوش مصنوعی روی دستگاه، هوش مصنوعی کارآمد، مدل های زبان کوچک و LLM پیشرفت های تاثیرگذاری را در تقاطع تحقیق و توسعه محصول ایجاد می کند.

بیشتر توسط دکتر شلبی
ژیوی لیو

ژیوی لیوپژوهشگر ارشد

Zhiwei Liu یک دانشمند تحقیقاتی ارشد از Salesforce AI Research است. او پروژه ها را در زمینه طراحی چند عاملی، بهینه سازی سریع، سیستم های توصیه گر و تفکیک داده ها رهبری می کند. او همچنین در آموزش مدل عامل، طراحی عامل کد و جمع آوری داده های عامل شرکت می کند. او به شکل دادن اختصاص می دهدادامه مطلب

بیشتر توسط Zhiwei
زو،ین لیو

زو،ین لیودانشمند پژوهشی، تمرین هوش مصنوعی

Zuxin Liu یک دانشمند محقق در Salesforce AI Research است که در توسعه عامل LLM، از جمله آموزش مدل (xLAM) و طراحی چارچوب عامل متخصص است. چشم انداز تحقیقاتی او بر توسعه عوامل هوش مصنوعی پیشرفته متمرکز است که می توانند با توانایی های انسان در کارهای روزمره مطابقت داشته باشند یا از آنها فراتر رود. او هستادامه مطلب

بیشتر توسط Zuxin
رایان لاپریری

رایان لاپریریمدیر ارشد استراتژی هوش مصنوعی، تمرین جه، هوش مصنوعی

Ryan LaPrairie از توسعه استراتژیک هوش مصنوعی در AI Global Practice پشتیب، می کند و با سازمان های Fortune 500 برای رسیدگی به طرح های تحول هوش مصنوعی در سطح سازم، همکاری می کند. او با سازمان ها همکاری می کند تا چارچوب ها و پیاده سازی استراتژی جامع هوش مصنوعی را توسعه دهدادامه مطلب

بیشتر توسط رایان
فیلیپ جونز

فیلیپ جونزمدیر ارشد استراتژی هوش مصنوعی، تمرین جه، هوش مصنوعی

فیلیپ یک استراتژیست مسئول ،ب و کار هوش مصنوعی در Salesforce است، جایی که او به مشتریان کمک می کند تا هوش مصنوعی را در عملیات خود وارد کنند و در عین حال محافظت های من، را در محل قرار دهند. او با رهبران ،ب و کار کار می کند تا برنامه های عملی برای استفاده از هوش مصنوعی ایجاد کند که هم برای کارمندان و هم برای مشتریان مفید باشد. با سابقه او درادامه مطلب

بیشتر توسط فیلیپ
استف، داولینگ

استف، داولینگمدیر ارشد استراتژی هوش مصنوعی، تمرین جه، هوش مصنوعی

استف، یک رهبر باتجربه تحول ،ب و کار است و یک استراتژیست مسئول هوش مصنوعی در تمرین جه، هوش مصنوعی Salesforce است. استف، در استراتژی های دیجیتال و مبتنی بر هوش مصنوعی برای بهبود تجربیات کارمندان و مشتریان تخصص دارد. با بیش از 15 سال مشاوره مدیریت در Salesforce، PwC،ادامه مطلب

بیشتر توسط استف،


منبع: https://www.salesforce.com/blog/responsibly-manage-multi-agent-systems/