Skip to content

الذكاء الاصطناعي - الأداة المثالية أم المخاطرة المثالية؟

أحد الموضوعات الرئيسية في الوقت الحاضر هو الذكاء الاصطناعي. يمدحه البعض باعتباره المنقذ لحياتنا الرقمية، بينما يفكر البعض الآخر في السيناريو النموذجي من فيلم Terminator، حيث يسيطر الذكاء الاصطناعي - Skynet - ويبدأ حربًا ضد البشرية

حسنًا، لأكون صادقًا، كلا السيناريوهين مبالغ فيه بعض الشيء.

دعنا نتعمق أكثر قليلاً في الحقائق: يتم تضمين الذكاء الاصطناعي حالياً في المزيد والمزيد من حالات الاستخدام. يمكنك العثور عليه في أدوات مايكروسوفت (في شكل CoPilot)، أو في الحل المعروف المستند إلى المتصفح ChatGPT، أو أيضًا في الشركات الناشئة مثل AI. إذا قمت بزيارة المعارض، سترى ”الذكاء الاصطناعي“ مذكورًا هنا وهناك، وبالطبع لا يعتبر المنتج حديثًا ورائعًا إلا إذا كان هناك شيء يحمل اسم ”الذكاء الاصطناعي“. يمكنك أيضًا ملاحظة هذا الاتجاه من خلال إجراء بحث على Google عن ”أهم الكلمات الطنانة لعام 2024“. على الأقل في بحثنا، كان العنصر الأهم هو ”الذكاء الاصطناعي“.

ولكن لا داعي للقلق - فنحن هنا لا نحاول تصوير ”الذكاء الاصطناعي“ بصورة سيئة ولا الترويج له على أنه علاج لكل شيء. وبما أننا سُئلنا عن هذا الموضوع خلال العديد من الدورات التدريبية والفعاليات المتعلقة بالأمن السيبراني، فإننا نريد أن نلقي بعض الضوء على المناقشات التي غالباً ما تكون غير واضحة.

فهم المصطلحات:

في كثير من الأحيان، يخلط الأشخاص والشركات بين المصطلحات المتعلقة بالذكاء الاصطناعي - وأحيانًا حتى عند الطلب. فيما يلي بعض التعريفات:

يمكن تصنيف الذكاء الاصطناعي (AI) على نطاق واسع إلى ذكاء اصطناعي قوي وذكاء اصطناعي ضعيف، بينما يُعتبر التعلم الآلي (ML) بمثابة تقنية أساسية في الذكاء الاصطناعي.

  • الذكاء الاصطناعي القوي (الذكاء الاصطناعي العام - AGI)

يشير الذكاء الاصطناعي القوي إلى شكل متقدم من أشكال الذكاء الاصطناعي الذي يمتلك ذكاءً وتفكيرًا ووعيًا ذاتيًا شبيهًا بالذكاء البشري. ويمكنه التعلم وتطبيق المعرفة في مجالات مختلفة دون تدخل بشري. ومع ذلك، لا يزال الذكاء الاصطناعي للذكاء الاصطناعي القوي نظرياً ولم يتحقق بعد.

  • الذكاء الاصطناعي الضعيف (الذكاء الاصطناعي الضيق)

تم تصميم الذكاء الاصطناعي الضعيف لمهام محددة ويفتقر إلى الذكاء العام أو الوعي. وهو يشغل العديد من التطبيقات في العالم الحقيقي، مثل المساعدين الافتراضيين (سيري وأليكسا) وأنظمة التوصيات والسيارات ذاتية القيادة. تعمل أنظمة الذكاء الاصطناعي هذه ضمن حدود محددة مسبقًا ولا تمتلك تفكيرًا مستقلًا.

  • التعلُّم الآلي (ML)

تعلُّم الآلة هو مجموعة فرعية من الذكاء الاصطناعي تُمكِّن الحواسيب من التعلم من البيانات وتحسين الأداء بمرور الوقت دون برمجة صريحة. يُعد تعلّم الآلة القوة الدافعة وراء العديد من تطبيقات الذكاء الاصطناعي الضعيفة، بما في ذلك التعرف على الصور واكتشاف الاحتيال والتحليلات التنبؤية.

وبالعودة إلى مقدمتنا، فإن ما نراه حاليًا تحت مسمى ”الذكاء الاصطناعي“ (مثل ChatGPT، CoPilot) هو ذكاء اصطناعي ضعيف، في حين أن Skynet يمكن اعتباره ذكاءً اصطناعيًا قويًا أو حتى ذكاءً اصطناعيًا خارقًا، وهو ما يتجاوز الذكاء الاصطناعي القوي بخطوات.

على الأقل في العامين المقبلين لن تسيطر الآلات على الكوكب. 😉

الذكاء الاصطناعي والأمن السيبراني: هل يجب أن نقلق؟

كيف ينطبق ذلك على الأمن السيبراني والذكاء الاصطناعي الضعيف؟ هل يجب أن نشعر بالقلق؟ هل ستخترق الأدوات القائمة على الذكاء الاصطناعي أنظمتنا بطريقة مؤتمتة بالكامل؟

مع تقدم تكنولوجيا الذكاء الاصطناعي، يواجه الأمن السيبراني فرصاً جديدة وتحديات خطيرة. يمكن للذكاء الاصطناعي الضعيف أن يدعم أدوات الأمن السيبراني الحديثة التي تساعد على اكتشاف التهديدات السيبرانية ومنعها بشكل أسرع من أي وقت مضى. ومع ذلك، يستفيد مجرمو الإنترنت أيضًا من الذكاء الاصطناعي لإنشاء أنظمة قرصنة آلية وهجمات مزيفة عميقة وعمليات احتيال احتيالية مولدة بالذكاء الاصطناعي .

لذا، يوجد حاليًا سباق تسلح رقمي مستمر، حيث نأمل أن تكون متقدمًا على المهاجم بدفاعاتك.

الملاحظة رقم 1: التغييرات في مشهد التهديدات

الهجمات المؤتمتة بالكامل التي تعتمد على الذكاء الاصطناعي ليست منتشرة على نطاق واسع حتى الآن، وبسبب خصائص الذكاء الاصطناعي الضعيف، فإنها عادةً ما تتبع أساليب محددة مسبقًا، مما يحد من مخاطرها.

ومع ذلك، من المهم الإشارة إلى أنه بفضل أدوات الذكاء الاصطناعي، أصبح الاختراق أسهل من أي وقت مضى. في حوالي عام 2000، كان المهاجمون يحتاجون إلى مجموعة مهارات قوية لتحديد الثغرات، والإلمام بمجموعات الأدوات، وأداء مهام سطر الأوامر المعقدة. تغيّر هذا الأمر بشكل كبير مع طرح نظام Kali Linux (2013) وإعادة صياغة Metasploit-Frameworks (حوالي عام 2010)، والتي وفرت ”سكين الجيش السويسري“ الجاهزة للاستخدام للقراصنة. لا يزال المهاجمون بحاجة إلى معرفة كيفية استخدام الأداة وتصميم الثغرات، ولكن التنفيذ أصبح أبسط بكثير لأن مجموعة الأدوات أعدت بالفعل عناصر مثل المستمعين للقذائف العكسية.

أما الآن، مع الذكاء الاصطناعي، فإن المطلب الرئيسي هو كتابة استعلام جيد، ويمكن للذكاء الاصطناعي تقديم إرشادات خطوة بخطوة. حتى الأفراد الذين ليس لديهم أي خلفية في مجال تكنولوجيا المعلومات يمكنهم تكثيف هجماتهم في وقت قصير.

مثال صغير: يمكن للمرء أن يسأل ChatGPT، ”كيف يمكنني تنفيذ ثغرة EternalBlue عبر Metasploit على Kali لمعرفة ما إذا كان جهازي معرضًا للخطر؟ إلى جانب الشرح التفصيلي، قد يصف أيضًا ما يجب القيام به بعد الاستغلال، مثل استرداد قاعدة بيانات SAM-Database (قاعدة بيانات كلمات مرور ويندوز) أو كيفية الحصول على كلمات المرور بنص واضح. يمكن القيام بذلك في أقل من دقيقتين باستخدام الإصدار المجاني من ChatGPT - مخيف، أليس كذلك؟

قد تعتقد، ”نعم، لكنك سألت أسئلة محددة للغاية...“. لقد جربنا نفس النهج مع S7-PLCs، وبعد تحذير موجز حول قانونية الاختراق، قدمت ChatGPT معلومات عن الثغرات القابلة للاستغلال ودليل تفصيلي حول كيفية استخدامها.

يجب أن يكون من الواضح أن احتمالية وقوع الهجمات قد ازدادت بشكل كبير بسبب الذكاء الاصطناعي، حيث أنه يزيل الكثير من البحث والدراية المطلوبة للهجمات الأبسط والمعروفة، مما يجعلها في متناول أي شخص تقريبًا.

الملاحظة رقم 2: التوعية أكثر أهمية من أي وقت مضى

مع ظهور الذكاء الاصطناعي، لا تتغير الجوانب التقنية فحسب، بل تتأثر العوامل الاجتماعية أيضًا. إن منع استخدام الذكاء الاصطناعي بالكامل في مؤسسة ما ليس حلاً حقيقياً، حيث يمكن أن يكون له تأثيرات كبيرة على القدرة التنافسية للأعمال. فكر فيما حدث عندما حلت أجهزة الكمبيوتر محل الآلات الكاتبة. يمكن أن يحدث الشيء نفسه مع المؤسسات التي ترفض مراعاة الذكاء الاصطناعي في عملياتها.

عند الحديث عن الوعي والذكاء الاصطناعي، هناك مجالان مهمان بشكل خاص:

  • ستخدام الذكاء الاصطناعي من قبل المهاجمين في الهندسة الاجتماعية
  • تسريب البيانات من خلال استخدام الذكاء الاصطناعي

لنبدأ بالهندسة الاجتماعية. قد تعتقد أنك على دراية جيدة بالأمن السيبراني، ولكن تخيل أنك تتلقى فجأة مكالمة فيديو من رقم مجهول. تجيب، فتجد مشرفك يتحدث عن موضوع معين، ثم يطلب منك القيام بشيء ما. هل ستشك في الأمر؟ ربما ستتحقق من ذلك عبر رقمه المعروف، ولكن ضع في اعتبارك جميع الأشخاص في المؤسسة الذين ليسوا ”محترفين في مجال الأمن السيبراني“. يمكن أن يقعوا بسهولة ضحية لهجمات التزييف العميق وهجمات الهندسة الاجتماعية القائمة على الذكاء الاصطناعي.

المشكلات الأخرى هي تسرب البيانات عن طريق الصدفة. يمكن للذكاء الاصطناعي أن يكون أداة مفيدة للغاية، ولكن يجب أن يتذكر المستخدمون أن أنظمة الذكاء الاصطناعي العامة تتعلم من الاستفسارات التي يتم إدخالها إليها. يمكن أن يؤدي ذلك إلى حالات يمكن فيها الكشف عن معلومات سرية - مثل شفرة المصدر - لمستخدم آخر في وقت لاحق إذا كان ذلك يساعد في حل طلبه. بالطبع، هذا يعتمد على الذكاء الاصطناعي المستخدم، لكن الخطر موجود، ويجب أن يكون المستخدمون على دراية به. في الاختبارات التي أجريت على ChatGPT، تم التأكد من مشاركة معلومات التعريف الشخصية، ورمز المصدر السري، وحتى رسائل البريد الإلكتروني السرية من المديرين التنفيذيين من المستوى التنفيذي في الاستفسارات.

نعم، يمكن أن تكون أنظمة الذكاء الاصطناعي ذات فائدة كبيرة لعمليات مكان العمل، ولكن يجب أن نضمن الحفاظ على السرية!

ملاحظة سريعة حول موضوع آخر: يمكن أن يخطئ الذكاء الاصطناعي أيضاً. لقد اختبرنا الذكاء الاصطناعي لمراجعة بعض المستندات ووجدنا أن الإجابات لم تكن مقنعة دائماً. نحن نشجع الجميع على عدم الوثوق الأعمى بما يخبرك به الذكاء الاصطناعي من إجابات

خاتمة

إذا كنت ترغب في معرفة المزيد عن الذكاء الاصطناعي والأمن السيبراني، فلا تتردد في التواصل معنا مباشرةً. نخطط لنشر المزيد من الرؤى قريباً، بما في ذلك نظرة متعمقة على الإمكانات التخريبية للذكاء الاصطناعي. ترقبوا ذلك!

An den Anfang scrollen