
الذكاء الاصطناعي في الأمن السيبراني — من LLMs إلى Agents.في هالحلقة ندخل عمليًا: كيف يتحوّل البرومبت لقرارات داخل أدواتك (SIEM/EDR/Ticketing)، وش الحالات اللي فعلاً تغيّر شغل الـSOC اليوم.هذا البودكاست برعاية:https://www.nuasecurity.comبسماعك للحلقة بتطلع بـ:- الفرق الحقيقي بين LLM وAgent وكيف ينفّذ أوتوماتيك داخل بيئتك.- دفاعيًا: ترياج الحوادث، تقليل الضجيج، تشغيل Playbooks، ورفع سرعة الاستجابة.- هجوميًا: Recon وPhishing مخصّص واختبار الثغرات.- المخاطر: هلوسة، تسريب بيانات، Prompt Injection، Deepfakes وKYC.- الضبط والحوكمة: صلاحيات محدودة، Human-in-the-loop، وAgent Safety.- القادم مستقبلا: فرق Red/Blue Agents ونماذج متخصّصة بدل “نموذج واحد لكل شيء”.إذا تشتغل في الأمن/المنتج/العمليات هذه الحلقة لك.اشترك وفَعّل الجرس، واكتب أسئلتك في التعليقات ✍️للمهتمين بالمصطلحات: LLMs, AI Agents, SOC, SIEM, EDR, DFIR, Incident Response, Prompt Injection, Data Leakage, Deepfakes.00:00 — مقدّمة البودكاست 00:38 — مقدّمة الحلقة وموضوعها: النماذج اللغوية الكبيرة والوكلاء الذكيون01:22 — تمهيد: لماذا الفترة القادمة ستغيّر الأمن السيبراني01:44 — ما الذي سنغطيه اليوم02:59 — كيف تعمل النماذج اللغوية الكبيرة + تعريف الوكيل الذكي04:56 — التشبيه: النموذج مُخطِّط والوكيل مُنفِّذ (مثال من الأمن السيبراني)07:07 — حالة استخدام دفاعية: تجميع الأدلة وفرز الحوادث تلقائيًا08:34 — وكيل المستوى الأول في مركز عمليات الأمن: تحليل السجلات واتخاذ الإجراءات11:07 — الجانب الهجومي: من المنع الافتراضي إلى توليد الاستغلالات واكتشاف الثغرات13:48 — تصيّد ذكي مخصّص حسب السياق17:50 — مشكلة الهلوسة في المشاريع الحسّاسة19:23 — قصة نموذج متقدّم وتجربة تحدّي «التقاط العلم» (CTF)22:06 — سلامة الوكلاء: كيف نضبط تصرّفات الوكيل23:22 — مخاطر تسريب البيانات والبيانات الشخصية الحسّاسة26:27 — حقن الأوامر والتزييف العميق ومتطلبات «اعرف عميلك»28:52 — شطرنج النماذج اللغوية الكبيرة ومستقبل الهجوم مقابل الدفاع30:24 — مستقبل فرق الوكلاء الحمراء/الزرقاء + اتجاه النماذج المتخصّصة33:17 — تمكين عملي للوكلاء (هندسة الأدوار والصلاحيات)36:12 — تعاون الوكلاء: سير عمل بين عدة وكلاء38:33 — الخاتمة#الأمن_السيبراني #ذكاء_اصطناعي #Agents #LLM #SOC