شدد خبير تقني، على أهمية التعاون بين القطاعين العام والخاص في المملكة
العربية السعودية، للاستفادة من تقنيات الذكاء الاصطناعي التوليدي في مجال الحوكمة
والمخاطر والامتثالGRC))، مشيرًا إلى أنه من خلال هذا التعاون يمكن للمملكة الاستفادة من الذكاء
الاصطناعي الواعد والمليء بالإمكانيات.
ويشهد عالم الأعمال بالسعودية ثورة تقنية هائلة مع تبني تقنيات الذكاء
الاصطناعي التوليدي، وروبوتات المحادثة مثل "شات جي بي تي"، وغيرها، حيث
توظف الشركات في مختلف القطاعات هذه الأدوات لتحقيق أهداف متعددة، بما في ذلك
أتمتة المهام، وتحسين عملية صنع القرار، وتعزيز الحوكمة والمخاطر والامتثال.
وتُعدّ هذه التطورات مُحركًا رئيسيًا لتحقيق رؤية المملكة 2030، حيث
يرتبط 66 هدفًا من أهدافها بشكل مباشر أو غير مباشر بالبيانات والذكاء الاصطناعي،
وتسعى المملكة عبر هذه الرؤية الطموحة إلى الريادة ضمن الاقتصادات القائمة على
البيانات والذكاء الاصطناعي، والتنويع الاقتصادي من خلال دعم القطاعات والصناعات
غير النفطية.
فوائد مذهلة
أوضح رامبراكاش رامامورثي، مدير أبحاث الذكاء الاصطناعي في شركة مانيج
إنجن، -المتخصصة في إدارة تكنولوجيا المعلومات المؤسسية، والتابعة لمجموعة زوهو
العالمية-، أن تقنيات الذكاء الاصطناعي التوليدي تقدم العديد من الفوائد لتعزيز
منظومة الحوكمة والمخاطر والامتثال، تشمل أتمتة المهام، وتحسين إدارة التغيير،
وربط الأنشطة التنظيمية بالسياسات، وتسهيل اكتشاف المخاطر، ورصد الامتثال، وتقديم
تقييمات مخاطر موضوعية، وهو ما يتيح للشركات تقليل الجهد البشري، وتعزيز الدقة،
واتخاذ قرارات أفضل بشأن المخاطر والامتثال، متوقعًا أن يؤدي استمرار تطور هذه
التقنيات إلى مزيد من التحسينات والابتكارات في المجال، مما سيسهم في تحسين كفاءة
العمليات، وضمان بيئة عمل آمنة وفعالة، وممتثلة للقوانين.
وأشار إلى أنه على الرغم من الفوائد الجمة لتقنيات الذكاء الاصطناعي
التوليدي، إلا أن سرعة تطورها تطرح بعض التحديات، مثل صعوبة دمج معايير الحوكمة مع
مشهد الذكاء الاصطناعي المتطور، والحاجة إلى تحديث القوانين واللوائح بشكل مستمر
لمواكبة التطورات، ولذلك أصبح من الضروري تبني مفهوم "التحسين المستمر"
من قبل جميع الأطراف المعنية.
ولفت إلى أنه في مجال الحوكمة يتمتع الذكاء الاصطناعي بقدرات هائلة في
تحليل البيانات من مصادر متنوعة، بما في ذلك التهديدات وتقارير الامتثال، مما
يساهم في اكتشاف الأنماط والأخطاء في البيانات بكفاءة، وبالتالي يُمكن المؤسسات من
تكييف سياساتها بشكل استباقي مع التهديدات المستجدة والتغييرات التنظيمية.
المخاوف والتحديات
على الرغم من الفوائد الكبيرة التي يوفّرها الذكاء الاصطناعي التوليدي
في مجال الحوكمة والمخاطر والامتثال، إلا أن رامامورثي يُحذّر من وجود بعض المخاوف
والتحديات لاستخدام هذه التقنيات، مبينًا، أنه قد تُنتج النماذج معلومات غير صحيحة
نتيجة للبيانات غير الدقيقة أو التحيزات البشرية التي قد تتسرب إلى أنظمة الذكاء
الاصطناعي وخوارزمياته، مما يؤثر على دقتها مشيروموثوقيتها، كما تفتقر هذه الأنظمة
إلى مراجع موثوقة، مما يجعل من الصعب التحقق من صحة المعلومات.
كما تواجه الشركات تحديات أخلاقية وقانونية عند استخدام تقنيات الذكاء
الاصطناعي في مجال الحوكمة، حيث قد لا تمتلك الشركات الخبرات الأخلاقية اللازمة
لضمان الاستخدام المسؤول للذكاء الاصطناعي، مما يتطلب توظيف خبراء متخصصين في
أخلاقيات الذكاء الاصطناعي لضمان تطوير ونشر أنظمة وتطبيقات الذكاء الاصطناعي بشكل
أخلاقي وقانوني.
ويقوم أخصائيو الحوكمة والمخاطر والامتثال بدورحيوي في وضع سياسات
تنظيم استخدام تقنيات الذكاء الاصطناعي وإنشاء الضوابط الضرورية لضمان الامتثال
للمعايير الأخلاقية والقانونية، وحماية المؤسسات من مخاطر اعتماد الجيل الجديد من
الذكاء الاصطناعي.
وأوصي رامامورثي، المؤسسات والشركات في السعودية بالتعامل السريع مع
التحديات المحيطة بعمليات الدمج الآمن والامتثال للقوانين واللوائح، خاصة في سياق
إدارة المخاطر والامتثال التي يقودها الذكاء الاصطناعي، لافتًا إلى أن استكشاف
إمكانيات الذكاء الاصطناعي في مجال الحوكمة والمخاطر والامتثال لم يعد مجرد خيار
مستحب، بل أصبح ضرورة حتمية.
وأكد على أهمية تبني مجموعة متنوعة من الحلول التكنولوجية المتطورة
وتذليل أي عقبات تعترض هذا التوجه، لضمان المضي قدمًا في رحلة الابتكار والتقدم،
والاستفادة القصوى من إمكانيات الذكاء الاصطناعي التوليدي بمختلف المجالات، بما
يتماشى مع أهداف رؤية 2030 لتحقيق الريادة في اقتصاد البيانات والذكاء الاصطناعي.