۴- حریم خصوصی، امنیت و ایمنی

این موضوع که داده های کاربران می تواند مجددا بازتولید شده و در جای دیگری مورد استفاده قرار گیرند، نگرانی‌های مربوط به حریم خصوصی را افزایش می‌دهد. سطوح مناسب حاکمیت حریم خصوصی داده‌ها از حقوق کاربران برای تصمیم‌گیری در مورد اینکه چه کسی می‌تواند داده‌هایشان را پردازش کند و برای چه هدفی تصمیم می‌گیرد محافظت می‌کند. حکمرانی خوب در مورد امنیت زیرساخت سیستم های هوش مصنوعی، از داده ها در برابر دسترسی غیرمجاز محافظت می کند.
برای ارزیابی اینکه آیا یک چارچوب حاکمیت هوش مصنوعی برای پشتیبانی از حریم خصوصی داده ها و امنیت زیرساخت سیستم هوش مصنوعی وجود دارد یا خیر، یک حسابرس می تواند ابتدا تعیین کند که آیا استانداردهای احراز هویت، فرآیندهای رمزگذاری داده ها و ابزارهایی برای محافظت از پاک کردن داده ها وجود دارد یا خیر. حسابرس همچنین باید بررسی کند که ابزارها و استانداردهای نظارتی برای ردیابی دسترسی به سیستم و نگهداری سوابق تنظیمات انجام شده در داده ها و الگوریتم ها وجود دارد یا خیر. در مرحله بعد، حسابرس می تواند ارزیابی کند که آیا این استانداردها و فرآیندها با هنجارهای صنعت و نیازهای مشتریان مطابقت دارند یا خیر.
از نظر ایمنی، حسابرسان باید به دنبال چارچوب حاکمیت هوش مصنوعی باشند که بتواند به نتایج برنامه های مبتنی هوش مصنوعی دسترسی داشته باشد، انها را نظارت کند و خطرات احتمالی نتایج مبتنی بر هوش مصنوعی را که می‌تواند نگرانی‌های ایمنی را ایجاد کند، کاهش دهد. یک مثال از این موضوع تعیین آن است که آیا فرآیندهایی( مانند آزمون استحکام در برابر رفتار خصمانه (adversarial test) و گشت آلوده سازی داده ها) برای نظارت مستمر بر ایمنی سیستم وجود دارد یا خیر. آزمون استحکام در برابر رفتار خصمانه نقاط ضعف یک الگوریتم تصمیم‌گیری را بررسی می کند. به این ترتیب که به صورت هدفمند مثال‌هایی را با قصد فریب دادن الگوریتم به آن می دهد تا ببیند آیا این مثالها منجر به آن می شوند که الگوریتم نتایج نادرستی را تولید کند و اینگونه استحکام آن را ارزیابی می‌کند. در این روش، مثالها در الگوریتم نظارتی قرار می گیرند و عملکرد سیستم را ارزیابی می کنند. هدف آزمون گشت الوده سازی داده ها ، دستگیری هر مهاجم خارجی یا خودی مخربی است که می‌خواهد با دستکاری داده‌های مورد استفاده برای آموزش الگوریتم، عملکرد یک مدل هوش مصنوعی را تضعیف کند. حسابرسان همچنین می توانند بررسی کنند که آیا فرآیندهایی مانند مداخله انسانی برای مقابله با خطرات غیرقابل پیش بینی ناشی از پیش بینی های نادرست سیستم هوش مصنوعی وجود دارد یا خیر.