نگرانی‌های مربوط به حریم خصوصی داده‌های هوش مصنوعی واقعی هستند – در اینجا چه باید کرد

شما می تو،د از مزایای تحول آفرین هوش مصنوعی مولد بهره مند شوید و بالاترین استانداردهای اعتماد و ایمنی را حفظ کنید. این وبینار به شما نشان می‌دهد که چگونه AI Cloud Salesforce، هوش مصنوعی، داده‌ها، تجزیه و تحلیل و اتوماسیون را برای ارائه هوش مصنوعی قابل اعتماد، باز و در زمان واقعی که برای سازم، آماده است، ادغام می‌کند.


نحوه ایجاد حریم خصوصی داده های هوش مصنوعی در بافت سیستم های خود

KPMG در نظرسنجی خود نوشت: «هوش مصنوعی قابل اعتماد مهم است. “اگر مردم سیستم های هوش مصنوعی را قابل اعتماد بدانند و مایل به اعتماد به آنها باشند، احتمال بیشتری دارد که آنها را بپذیرند.”


منبع: https://www.salesforce.com/blog/ai-data-privacy/

با شرکت هایی که در ساختار سیستم های هوش مصنوعی خود محافظی ایجاد می کنند شریک شوید. چرا این مهم است؟

هوش مصنوعی مولد قابل اعتماد را به CRM خود بیاورید

اکنون باور ، آن تقریبا سخت است، اما زم، مصرف کنندگان نسبت به تجارت الکترونیک محتاط بودند. قبل از اینکه به طور گسترده از آنچه که به یک تجارت سالانه 1 تریلیون دلاری تبدیل شده استقبال کنند، نگر، هایی در مورد امنیت داده های شخصی و مالی خود داشتند. شکاف اعتماد وجود داشت.

تشخیص سمیت روشی برای پرچم‌گذاری محتوای سمی مانند سخنان مشوق عداوت و تنفر و کلیشه‌های منفی است. این کار را با استفاده از یک مدل یادگیری ماشینی (ML) برای اسکن و امتیاز دادن به پاسخ‌هایی که یک LLM ارائه می‌دهد، انجام می‌دهد، و اطمینان حاصل می‌کند که نسل‌های یک مدل در یک زمینه تجاری قابل استفاده هستند.

بازیابی امن داده ها اینستین GPT – اولین هوش مصنوعی مولد در جهان برای مدیریت ارتباط با مشتری (CRM) – داده‌ها را از Salesforce، از جمله Data Cloud، به ،وان بخشی از فرآیند زمین‌سازی پویا است،اج می‌کند. این به شما امکان می‌دهد داده‌هایی را که برای ایجاد درخواست‌های متنی نیاز دارید وارد کنید. در هر تعاملی، سیاست‌های حاکمیتی و مجوزها اعمال می‌شوند تا اطمینان حاصل شود که فقط ،، که مجوز دارند به داده‌ها دسترسی دارند.

بنیوف اخیراً گفته است که هوش مصنوعی مولد می‌تواند «مهم‌ترین فناوری در طول عمر» باشد. مطمئناً هوش مصنوعی مولد می‌تواند تجارت الکترونیک را که برای همیشه رفتار مصرف‌کننده، صنایع و مدل‌های ،ب‌وکار را تغییر داد، شبیه سیب‌زمینی‌های کوچک کند. مک کینزی اخیرا برآورد شده است که تاثیر هوش مصنوعی بر بهره وری می تواند تریلیون ها را افزایش دهد، سالانه، به اقتصاد جه،. اما ما باید اعتماد بالایی به این سیستم ها داشته باشیم تا این اتفاق بیفتد.

حسابرسی به طور مداوم سیستم ها را ارزیابی می کند تا مطمئن شود که آنها همانطور که انتظار می رود، بدون تعصب، با داده های با کیفیت بالا و مطابق با چارچوب های نظارتی و سازم، کار می کنند. حسابرسی همچنین به سازمان‌ها کمک می‌کند تا با ثبت درخواست‌ها، داده‌های مورد استفاده، ،وجی‌ها و تغییرات کاربر نهایی در یک مسیر حسابرسی ایمن، نیازهای انطباق را برآورده کنند.

به سرعت به امروز بروید، و اعتماد در قلب این است که چگونه ،ب و کارها و مشتریان به طور گسترده و با موفقیت از ظهور هوش مصنوعی مولد استقبال خواهند کرد. برخی از شرکت‌ها محصولات خود را بدون انجام کار سخت حذف سوگیری، ارائه شفافیت و اطمینان از محافظت 100٪ از داده‌های مشتری، هوش مصنوعی می‌کنند. اما همانطور که رهبران بیشتر و بیشتر متوجه می شوند، همین کار است که تفاوت را در اعتماد مردم به هوش مصنوعی شما ایجاد می کند.

آ گزارش KPMG دریافتند که 75 درصد از پاسخ دهندگان تمایل بیشتری به اعتماد به سیستم های هوش مصنوعی دارند، زم، که مک،سم های تضمینی برای حمایت از استفاده اخلاقی و مسئولانه وجود داشته باشد.

پوشش داده ها برای محافظت از اطلاعات خصوصی و رعایت ا،امات حریم خصوصی، داده های حساس را با داده های ناشناس جایگزین می کند. پوشاندن داده ها به ویژه در حصول اطمینان از حذف تمام اطلاعات قابل شناسایی شخصی مانند نام، شماره تلفن و آدرس، هنگام نوشتن درخواست های هوش مصنوعی مفید است.

شهره عابدی، EVP، COO و CTO AAA گفت: «همه بخش‌های ما ایده‌های خوبی در مورد نحوه استفاده از هوش مصنوعی مولد دارند. من نمی‌خواهم خلاقیت را خفه کنم، اما اگر در پشتی‌ام را باز بگذارد، بهترین چیز را هم نمی‌خواهم.

نمای کارمند

  • در نظرسنجی از بیش از 4000 کارمند در بخش فروش، خدمات، بازاریابی و بازرگ،، 73 درصد گفتند که معتقدند هوش مصنوعی مولد خطرات امنیتی جدیدی را معرفی می کند.
  • 60 درصد ،، که قصد استفاده از هوش مصنوعی را دارند، گفتند که نمی‌دانند چگونه این کار را انجام دهند و در عین حال داده‌های حساس را ایمن نگه دارند.
  • این خطرات در صنایع بسیار تحت نظارت مانند خدمات مالی و بهداشت، نگر، خاصی دارند.

کاری که اکنون می تو،د انجام دهید

بر اساس این گزارش، «این مک،سم‌ها شامل نظارت بر دقت و قابلیت اطمینان سیستم، استفاده از کد رفتاری هوش مصنوعی، نظارت توسط هیئت بازبینی اخلاقی هوش مصنوعی مستقل، رعایت استانداردهای هوش مصنوعی قابل توضیح و هوش مصنوعی شفاف، و گواهی‌نامه اخلاق هوش مصنوعی برای ایجاد اصول حاکمیتی است. ”

مقالاتی را که فقط برای شما انتخاب شده اند، در صندوق ورودی خود دریافت کنید

<،on name="Subscribe" cl،="wp-block-salesforce-blog-newsletter-signup__submit btn btn-lg btn-primary form-subscribe-modal-open">

ثبت نام کن

رهبران در صنایع بسیار تحت نظارت مانند خدمات مالی و سلامت در مورد نحوه پیاده سازی هوش مصنوعی بدون به خطر انداختن اعتماد و ایمنی مشتری محتاط هستند. برای اطمینان از انطباق با مقررات، این صنایع باید موارد استفاده را بررسی کنند که حریم خصوصی و امنیت داده ها را به خطر نمی اندازد.

  • برای بانکداری، این ممکن است شامل استفاده از اتوماسیون برای کارآمدتر ، وظایف و فرآیندهای معمول باشد، مانند اختلافات تراکنش یا استفاده از هوش مصنوعی برای تقویت ربات‌های گفتگوی هوشمندتر که تعاملات مشتری را شخصی‌سازی می‌کند و خدمات خود را بهبود می‌بخشد.
  • برای ارائه دهندگان سلامت، هوش مصنوعی می تواند به آنها کمک کند تا جمعیت بیماران را به طور مؤثرتری ت،یم بندی کنند تا بتوانند ارتباطات شخصی تر و به موقع مانند راهنمایی هایی برای بیماران دیابتی برای کاهش قند خون در هنگام افزایش سطح گلوکز ارسال کنند.

زمین پویا پاسخ‌های یک LLM را با استفاده از صحیح و به‌روزترین اطلاعات هدایت می‌کند و مدل را در داده‌های واقعی و زمینه مرتبط «پایه‌بندی» می‌کند. این امر از توهمات هوش مصنوعی یا پاسخ های نادرست که بر اساس واقعیت یا واقعیت نیست جلوگیری می کند.

پاتریک استو،، EVP و GM از پلتفرم در Salesforce، توضیح داد که با AI Cloud، می‌تو،د از دستاوردهای بهره‌وری هوش مصنوعی بدون ارائه داده‌های شرکت خود استفاده کنید. او گفت که حفظ حریم خصوصی داده های هوش مصنوعی به حفاظت های مختلفی نیاز دارد:

در Accenture، کمیته حسابرسی هیئت مدیره آن بر برنامه انطباق با هوش مصنوعی برای 55000 کارمند شرکت نظارت می کند.

“اگر نمی تو،د با شخصی در شرکت خود تماس بگیرید و از او بخواهید به شما بگوید که هوش مصنوعی کجا استفاده می شود، چه خطراتی دارد، چگونه کاهش می یابد و چه ،ی پاسخگو است، شما هنوز هوش مصنوعی مسئولی ندارید.” گفت شیرین.

هوش مصنوعی قابل اعتماد به ویژه در صنایع تحت نظارت بسیار مهم است

حفظ صفر ی،ی که هیچ اطلاعات مشتری خارج از Salesforce ذخیره نمی شود. اعلان‌ها و ،وجی‌های هوش مصنوعی هرگز در LLM ذخیره نمی‌شوند و توسط LLM یاد نمی‌شوند. آنها به سادگی ناپدید می شوند.

تمام فناوری در جهان برای اطمینان از هوش مصنوعی شفاف، مسئولانه و ایمن کافی نیست. همچنین نیاز به حکمر، خوب، شروع از بالا، و نظارت انس، بر سیستم‌های هوش مصنوعی دارد.

جولی سویت، مدیر عامل Accenture، گفت که خطرات زم، کاهش می‌یابد که حفاظت از حریم خصوصی و امنیتی مانند اینها دقیقاً در فناوری گنجانده شود.

اعتماد به حریم خصوصی داده های هوش مصنوعی با حکمر، خوب شروع می شود