۳- شفاف، قابل توضیح و پایدار

از نظر شفافیت، حسابرسان باید اطمینان حاصل کنند که چارچوب حاکمیت هوش مصنوعی از دسترسی سهامداران به اطلاعات دقیق، به موقع و مرتبط پشتیبانی می کند. قابل توضیح بودن به معنای توانایی توضیح دادن به سهامداران در مورد تصمیماتی می باشد که سیستم هوش مصنوعی در هر دو جنبه فنی و غیرفنی بسته به نیازهای ذینفعان می گیرد.
دسترسی به موقع به اطلاعات دقیق و مرتبط لزوماً تضمین نمی کند که چیزی قابل توضیح است. ارایه توضیحات فنی به ذینفعانی که دانش فنی ندارند کمکی به آنها در درک اینکه چرا و چگونه سیستم هوش مصنوعی تصمیم‌گیری می‌کند نمی نماید و برای آنها مفید نیست. علاوه بر این، تمایل ذینفعان برای توضیحات فنی در سازمان‌ها متفاوت است.
حسابرسان برای ارزیابی اینکه آیا یک چارچوب حاکمیت هوش مصنوعی مؤثری برای پشتیبانی از موارد قابل توضیح وجود دارد یا خیر، باید بررسی کنند که آیا:
• فرآیندی برای معادل سازی اطلاعات فنی به عبارات غیر فنی و قابل ادارک برای مخاطب عمومی وجود دارد.
• کانال های ارتباطی مناسبی برای ذینفعان برای ارائه بازخورد، همراه با فرآیندی برای در نظر گرفتن و گنجاندن چنین بازخوردهایی وجود دارد.
بازخورد سهامداران این امکان را برای حسابرسان فراهم می کند تا ارزیابی کنند که آیا سطح مناسبی از شفافیت و درک وجود دارد یا خیر.
از نظر پایداری، حسابرسان باید به دنبال چارچوب حاکمیت هوش مصنوعی باشند که از تصمیمات پایدار و قابل تکرار اتخاذ شده توسط سیستم های هوش مصنوعی پشتیبانی کند. یک سیستم هوش مصنوعی پایدار سیستمی است که تصمیمات ارائه شده توسط انها هنگامی که اطلاعات ورودی تغییرات اندکی می کنند ، تغییر قابل توجهی نمی‌کند. تکرارپذیری به این معناست که سیستم هوش مصنوعی می تواند توسط اشخاص ثالث (دیگری)، با استفاده از اسناد و داده های ارائه شده توسط توسعه دهنده ساخته شود و همچنان همان تصمیمات سیستم اصلی را ایجاد کند.
حسابرسان باید بررسی کنند که آیا دستورالعمل‌هایی وجود دارد که سازمان را ملزم به آزمایش پایداری و تکرارپذیری یک سیستم هوش مصنوعی می‌کند، از جمله گزارش نتایج غیرقابل استفاده. برای مثال، حسابرسان می‌توانند به دنبال این باشند که آیا سازمان مستندات یا فایلهایی را در دسترس قرار می‌دهد که هر مرحله از فرآیند توسعه سیستم هوش مصنوعی را تکرار می‌کنند.