مقررات هوش مصنوعی مولد چیست؟

گیلیام مور گفت: “بدون داده ها، هیچ یک از اینها کار نمی کند.”

مقالات پرطرفدار

6 راه آسان که می تو،د برای هوش مصنوعی مهارت پیدا کنید

پنج دستورالعملی را که Salesforce برای ایجاد GAI قابل اعتماد از جمله دقت و ایمنی برای مشتریان، کاربران و غیره استفاده می‌کند، بد،د.



منبع: https://www.salesforce.com/blog/generative-ai-regulations/

مهم نیست که شرکت شما در کجا تجارت می کند یا با چه ،ی تعامل دارید – چه در حال توسعه فناوری برای استفاده شرکت های دیگر یا تعامل مستقیم با مصرف کنندگان – مطمئن شوید که با وکلایی صحبت می کنید که از مقررات مولد هوش مصنوعی پیروی می کنند و می توانند به شما در فرآیند شما کمک کنند.

شرکت ها همچنان به این فکر می کنند که چگونه این ابزارها بر تجارت آنها تأثیر می گذارد. این نه تنها توانایی این فناوری است، بلکه چگونگی نقش مقررات در نحوه استفاده ،ب و کارها از آن نیز مهم است. داده ها از کجا می آیند؟ چگونه از آن استفاده می شود؟ آیا مشتریان محافظت می شوند؟ آیا شفافیت وجود دارد؟

آب و هوای اطراف GAI با سرعت سرسام آوری در حال حرکت است و تنظیم کننده ها در تلاش هستند تا بفهمند این فناوری چگونه بر مشاغل و عموم مردم تأثیر می گذارد. در اینجا برخی از ،اوین اخیر آمده است:

پیشینه قو،ن هوش مصنوعی مولد

اگر می‌پرسید که آیا نیاز به پیاده‌سازی ابزارهای هوش مصنوعی مولد (GAI) برای حمایت از ،ب‌وکار خود دارید، تنها نیستید. این تکنولوژی می تواند بهره وری کارکنان را افزایش دهد، اما ایمن است؟ در حالی که این ابزارها می توانند از بازاریابی گرفته تا خدمات مشتری و بینش داده ها کمک کنند، رهبران ،ب و کار این کار را کرده اند نگر، هایی را مطرح کرد در مورد هوش مصنوعی اثرات و خطرات احتمالی در جامعه و برخی خواستار قو،ن هوش مصنوعی مولد هستند.

چه چیزی میخواهید بد،د

مقالاتی را که فقط برای شما انتخاب شده اند، در صندوق ورودی خود دریافت کنید

<،on name="Subscribe" cl،="wp-block-salesforce-blog-newsletter-signup__submit btn btn-lg btn-primary form-subscribe-modal-open">

ثبت نام کن

،ب و کارها باید چه ملاحظاتی را رعایت کنند؟

گیلیام مور گفت: «این‌ها همان نگر،‌هایی هستند که قبلاً در سواحل صنعت فناوری دیده‌ایم. «در حال حاضر، به نظر می‌رسد تلاش‌های نظارتی، از جمله تحقیقات، بر حفظ حریم خصوصی، تعدیل محتوا و نگر،‌های مربوط به حق چاپ متمرکز است. بسیاری از این موارد قبلاً در قانون مورد توجه قرار گرفته است، بنابراین تنظیم کننده ها در تلاش هستند تا مطمئن شوند که این برای هدف برای هوش مصنوعی مولد من، است.

در حالی که Salesforce در حال برداشتن گام هایی برای توسعه هوش مصنوعی مولد قابل اعتماد برای مشتریان خود است، این مشتریان همچنین با سایر فروشندگان و پردازنده ها کار می کنند. آنها باید از آسیب های احتمالی که ممکن است وجود داشته باشد آگاه باشند و فقط کورکورانه اعتماد نکنند. گیلیام مور گفت که شرکت های کوچکتر باید سوالاتی از جمله:

  • آیا با GDPR مطابقت دارید؟
  • شما هستید HIPAA، یا هر قانون دیگری که صنعت شما را تنظیم می کند، مطابقت دارد؟
  • آیا سیاست استفاده قابل قبولی دارید؟
  • گواهینامه های شما چیست؟
  • رویه های شما در مورد داده ها چیست؟
  • آیا سیاست هایی دارید که سعی می کند نرده هایی را در اطراف استقرار این فناوری فراهم کند؟

نگر، ها در مورد هوش مصنوعی (AI) به سال ها قبل برمی گردد زم، که بحث ها پوشش داده شد از دست دادن شغل احتمالی، نابرابری، تعصب، مسائل امنیتی و موارد دیگر. با رشد سریع از هوش مصنوعی مولد پس از راه اندازی عمومی از ChatGPT در نوامبر 2022، پرچم های جدید عبارتند از:

  • مسائل مربوط به حریم خصوصی و داده کاوی: شرکت ها باید در مورد محل جمع آوری داده ها و نحوه استفاده از آن شفافیت داشته باشند.
  • نگر، های مربوط به حق چاپ: از آنجایی که ابزارهای GAI از منابع داده گسترده است،اج می شوند، احتمال سرقت ادبی افزایش می یابد.
  • اطلاعات غلط: اطلاعات نادرست می تواند سریعتر پخش شود با چت ربات‌های هوش مصنوعی، که داستان‌های کاملاً نادرستی به نام ایجاد کرده‌اند توهمات.
  • تایید هویت: آیا آنچه می خو،د توسط یک انسان یا ربات چت ایجاد شده است؟ این جا هست نیاز به تایید مقالات، پست های رسانه های اجتماعی، هنر و موارد دیگر.
  • حفاظت از کودک: فراخو، برای اطمینان از محافظت از کودکان و نوجوانان وجود دارد محتوای هشدار دهنده و تولید شده توسط هوش مصنوعی در رسانه های اجتماعی

گیلیام مور گفت: «اگر شرکت کوچک‌تری هستید، ممکن است لازم باشد به دقت ارائه دهندگان خدمات شخص ثالث خود تکیه کنید. «به پروتکل‌های حریم خصوصی، رویه‌های امنیتی، آنچه به ،وان آسیب‌ها و پادمان‌ها شناسایی می‌کنند نگاه کنید. به آن دقت کنید.»

هوش مصنوعی مولد قابل اعتماد بسازید

گیلیام مور گفت: «گفت‌وگو با مشاوران مورد اعتماد خود همیشه اولین قدم خوب در همه این موارد است. «نوآوری با سرعتی باورن،ی در حال وقوع است. بنابراین، گفت‌و،ایی که اکنون داریم می‌تواند در شش ماه آینده بیات شود.»

5 دقیقه مطالعه

چگونه ،ب و کارهای کوچک می توانند مطابقت داشته باشند؟

د،ل گیلیام مور، مدیر سیاست عمومی جه، در Salesforce گفت: “بیشتر کشورها فقط سعی می کنند اطمینان حاصل کنند که هوش مصنوعی مولد تابع اقدامات موجود در مورد حریم خصوصی، شفافیت، حق چاپ و پاسخگویی است.”

کاری که شرکت شما اکنون می تواند انجام دهد

خلاصه اجرایی

شرکت‌های بزرگ‌تر اغلب می‌توانند در تحقیق و توسعه پیرامون فناوری سرمایه‌گذاری کنند، به‌ویژه برای سازگاری با آن. ،ب‌وکارهای کوچک‌تر ممکن است منابع لازم برای انجام بررسی‌های لازم را نداشته باشند، بنابراین پرسیدن سؤالات درست از فروشندگان و شرکای فناوری در ا،یستم آنها اهمیت پیدا می‌کند.

رگولاتورها در مورد نحوه جمع‌آوری داده‌ها و نحوه تحویل آن اطلاعات به کاربران نگران بوده‌اند. داشتن یک خط مشی استفاده قابل قبول – توافق بین دو یا چند نفر (مانند یک ،ب و کار و کارمندان آن یا یک دانشگاه و دانشجویان) که استفاده صحیح را هنگام دسترسی به یک شبکه شرکتی یا اینترنت مشخص می کند – می تواند به حفظ انطباق کمک کند. علاوه بر این، نشان دادن منشأ داده‌ها، یک دنباله مستند که می‌تواند منشأ داده‌ها و مکان فعلی آن را ثابت کند، مهم است.

4 دقیقه مطالعه

یک ،یدار با یک فروشنده در یک فروشگاه با ابزار صحبت می کند: داده های ،ده فروشی

به دنبال مشتریان جدید نباشید – مشتریان فعلی شما معدن طلا هستند

این همه دارد تنظیم کننده ها را برانگیخت در سراسر جهان برای بررسی چگونگی جمع‌آوری داده‌ها و تولید ،وجی‌های ابزار GAI و نحوه آموزش شرکت‌ها هوش مصنوعی که در حال توسعه هستند. در اروپا، کشورها به سرعت قو،ن حفاظت از داده های عمومی (GDPR) را اعمال می کنند، که بر هر شرکتی که در اتحادیه اروپا کار می کند تأثیر می گذارد. این یکی از قوی ترین چارچوب های حقوقی حفظ حریم خصوصی در جهان است. ایالات متحده قانون حفظ حریم خصوصی فراگیر مشابهی ندارد. این ممکن است تغییر کند، با درخواست برای قو،ن هوش مصنوعی مولدتر.