💰 20% Provision sichern: Verdiene mit unserem Partnerprogramm bei jeder Empfehlung – Jetzt Affiliate werden
Menü

Login Registrieren
Matrix Background
Bewerbungs Checker Cybersecurity

Projekte Soc Analyst: Anwendung, typische Fehler, Praxiswissen und saubere Workflows

Was ein starkes SOC-Analyst-Projekt wirklich ausmacht

Ein gutes SOC-Analyst-Projekt ist kein Screenshot-Sammelalbum aus einem SIEM. Entscheidend ist, ob ein realistischer Verteidigungsfall nachvollziehbar aufgebaut, technisch sauber umgesetzt und analytisch korrekt ausgewertet wurde. In der Praxis zählt nicht, ob ein Dashboard bunt aussieht, sondern ob aus Telemetrie belastbare Erkenntnisse entstehen. Ein Projekt ist dann stark, wenn klar wird, welche Datenquellen vorhanden waren, welche Hypothese geprüft wurde, wie die Erkennung implementiert wurde, welche False Positives auftraten und wie daraus ein stabiler Workflow entstanden ist.

Viele Einsteiger bauen Projekte zu breit. Es werden Windows-Logs, Sysmon, Suricata, Zeek, EDR, Sigma, YARA und Threat Intelligence gleichzeitig eingebaut, ohne dass die Zusammenhänge sauber dokumentiert sind. Das Ergebnis wirkt technisch ambitioniert, aber operativ schwach. Ein SOC arbeitet nicht nach dem Prinzip „mehr Tools gleich mehr Sicherheit“, sondern nach Signalqualität, Reproduzierbarkeit und Priorisierung. Ein kleines, klar abgegrenztes Projekt mit sauberer Detection-Logik ist wertvoller als ein überladenes Lab ohne belastbare Auswertung.

Ein realistisches Projekt beginnt mit einer konkreten Fragestellung. Beispiele: Wie lässt sich verdächtige PowerShell-Nutzung erkennen? Wie werden fehlgeschlagene Logins von Passwort-Spraying unterschieden? Wie kann DNS-Tunneling in Netzwerkdaten sichtbar gemacht werden? Wie wird eine verdächtige Prozesskette auf einem Windows-Host korreliert? Solche Fragen zwingen zu einem strukturierten Vorgehen: Datenquelle auswählen, Ereignisse verstehen, Baseline definieren, Erkennungslogik formulieren, Testdaten erzeugen, Ergebnisse prüfen und Tuning durchführen.

Wer Projekte für den SOC-Bereich aufbaut, sollte nicht nur Technik zeigen, sondern Arbeitsweise. Dazu gehören Ticket-Denken, Eskalationslogik, Schweregrade, Dokumentation und die Fähigkeit, Unsicherheit offen zu benennen. Ein Analyst, der sauber begründet, warum ein Alert nicht ausreicht oder warum zusätzliche Telemetrie fehlt, arbeitet näher an der Realität als jemand, der jeden Treffer als Incident verkauft. Genau diese Reife trennt Spielerei von belastbarer Blue-Team-Arbeit.

Für den Aufbau weiterer Projektideen sind auch angrenzende Themen nützlich, etwa Projekte Blue Team, Homelab Cybersecurity und Portfolio Cybersecurity. Dort wird sichtbar, wie technische Ergebnisse so aufbereitet werden, dass nicht nur Aktivität, sondern echte Analysekompetenz erkennbar wird.

Sponsored Links

Projektarchitektur im Homelab: klein starten, sauber messen, realistisch auswerten

Ein belastbares SOC-Projekt braucht eine Umgebung, die kontrollierbar ist. Das Ziel ist nicht, ein Unternehmensnetz vollständig zu simulieren, sondern typische Verteidigungssituationen reproduzierbar abzubilden. Eine sinnvolle Minimalarchitektur besteht aus einem Windows-Client, einem Linux-System, einer zentralen Logsammlung und mindestens einer Netzwerk- oder Host-Telemetriequelle. Wer zu früh skaliert, verliert meist die Übersicht über Datenfluss, Zeitstempel, Parsing und Feldkonsistenz.

Ein häufiger Fehler ist die Annahme, dass ein SIEM bereits Analyse bedeutet. Tatsächlich ist das SIEM zunächst nur Sammel- und Abfrageplattform. Die eigentliche Qualität entsteht durch saubere Datenpfade. Wenn Windows Event Logs, Sysmon und Firewall-Logs mit unterschiedlichen Zeitzonen, unvollständigen Hostnamen oder inkonsistenten User-Feldern ankommen, wird jede spätere Korrelation unzuverlässig. Deshalb beginnt ein gutes Projekt nicht mit Detection Rules, sondern mit Datenhygiene.

Praktisch bewährt sich ein Aufbau mit klaren Rollen: ein zu überwachender Host, ein Angriffs- oder Simulationshost, ein Logserver und optional ein Sensor für Netzwerkdaten. Wichtig ist, dass jede Komponente einen Zweck hat. Sysmon liefert Prozess-, Netzwerk- und Dateiereignisse auf Windows. Linux kann Auth-Logs, sudo-Aktivitäten, Shell-Historie und Prozessstarts liefern. Suricata oder Zeek ergänzen Netzwerkperspektive. Erst wenn klar ist, welche Frage mit welcher Telemetrie beantwortet werden soll, lohnt sich die Integration.

  • Definiere vor dem Aufbau, welche Angriffsszenarien getestet werden sollen und welche Logquellen dafür zwingend nötig sind.
  • Prüfe jede Datenquelle auf Zeitstempel, Hostnamen, Benutzerkontext und Feldkonsistenz, bevor Regeln geschrieben werden.
  • Dokumentiere den Datenfluss vom Endpunkt bis ins SIEM, inklusive Parsern, Normalisierung und möglicher Verluste.

Ein sauberes Homelab muss außerdem kontrollierte Testdaten erzeugen können. Ohne reproduzierbare Aktivität ist Tuning kaum möglich. Wer etwa PowerShell-Erkennung testen will, braucht harmlose Admin-Kommandos, typische Benutzeraktivität und bewusst verdächtige Befehle als Vergleichsmenge. Nur so lässt sich beurteilen, ob eine Regel tatsächlich bösartiges Verhalten erkennt oder nur administrative Routine alarmiert. Für den Ausbau solcher Umgebungen sind Eigene Projekte Cybersecurity und Projekte It Security sinnvolle Ergänzungen.

Ein weiterer Punkt ist die Trennung zwischen Infrastrukturproblem und Sicherheitsereignis. Wenn Logs fehlen, Parser brechen oder Agenten instabil laufen, darf das nicht als Detection-Problem missverstanden werden. In realen SOCs gehen viele Stunden nicht in die Analyse eines Angriffs, sondern in die Sicherstellung verlässlicher Telemetrie. Wer das im Projekt sichtbar macht, zeigt ein deutlich realistischeres Verständnis der Rolle.

Logquellen verstehen statt nur einsammeln

Die größte Schwäche vieler SOC-Projekte ist nicht fehlende Technik, sondern fehlendes Verständnis für die Aussagekraft einzelner Logquellen. Ein Windows Security Event ist kein Sysmon Event. Ein DNS-Log ist kein Proxy-Log. Ein EDR-Alert ist keine Rohtelemetrie. Wer diese Unterschiede nicht sauber trennt, baut Regeln auf falschen Annahmen. Gute Analysten wissen, welche Datenquelle welche Sicht auf ein Ereignis liefert und wo ihre Grenzen liegen.

Windows Security Logs eignen sich gut für Authentifizierung, Gruppenänderungen, Logon-Typen und bestimmte Policy-Ereignisse. Sysmon ergänzt Details, die im Standardlogging fehlen: Prozessketten, Command Lines, Parent-Child-Beziehungen, Image Loads, Netzwerkverbindungen und Dateierstellung. Gerade für Erkennungen rund um LOLBins, PowerShell, WMI oder verdächtige Prozessstarts ist Sysmon oft die entscheidende Quelle. Allerdings erzeugt Sysmon ohne saubere Konfiguration schnell zu viel Rauschen. Ein Projekt sollte deshalb immer zeigen, welche Events bewusst aktiviert wurden und warum.

Netzwerkdaten werden häufig überschätzt. Ein IDS-Alert allein erklärt selten den Kontext. Erst in Kombination mit DNS-Anfragen, HTTP-Metadaten, TLS-Indikatoren oder Host-Telemetrie entsteht ein belastbares Bild. Beispiel: Ein Suricata-Hit auf verdächtigen Traffic ist interessant, aber ohne Prozessbezug bleibt offen, welche Anwendung auf dem Host die Verbindung aufgebaut hat. Umgekehrt kann eine Sysmon-Netzwerkverbindung ohne DNS- oder Proxy-Kontext schwer einzuordnen sein. Gute Projekte zeigen diese Lücken offen und versuchen nicht, Unsicherheit zu kaschieren.

Linux-Logs werden in SOC-Projekten oft vernachlässigt, obwohl sie analytisch sehr wertvoll sind. Authentifizierungsversuche, sudo-Nutzung, SSH-Aktivität, Cron-Jobs, Service-Starts und Shell-Kommandos liefern starke Indikatoren für Missbrauch. Gerade bei Brute-Force-, Persistence- oder Privilege-Escalation-Szenarien lassen sich auf Linux sehr klare Erkennungen bauen. Wichtig ist, nicht nur auf einzelne Fehlermeldungen zu schauen, sondern Sequenzen zu analysieren: Login-Versuch, erfolgreicher Zugang, sudo, Download, Prozessstart, ausgehende Verbindung.

Ein starkes Projekt beschreibt deshalb nicht nur, welche Logs gesammelt wurden, sondern welche analytischen Fragen damit beantwortet werden können. Wer das sauber formuliert, zeigt genau die Denkweise, die auch in Skills Soc Analyst und Skills Blue Team erwartet wird: Datenquellen nicht nur bedienen, sondern in ihrer operativen Aussagekraft verstehen.

Beispiel für eine einfache Analysefrage:
- Datenquelle: Sysmon Event ID 1
- Fragestellung: Welche Prozesse starten PowerShell mit verdächtigen Parametern?
- Relevante Felder: Image, CommandLine, ParentImage, User, CurrentDirectory, Hashes
- Risiko: Admin-Skripte und Management-Tools erzeugen ähnliche Muster
- Gegenmaßnahme: Baseline für legitime Parent-Prozesse und bekannte Skriptpfade

Genau an solchen Stellen wird sichtbar, ob ein Projekt nur gesammelt oder wirklich analysiert wurde.

Sponsored Links

Detection Engineering im SOC: von der Hypothese zur belastbaren Regel

Detection Engineering ist der Kern vieler guter SOC-Projekte. Dabei geht es nicht darum, möglichst viele Regeln zu importieren, sondern Verhalten so zu modellieren, dass ein Alarm operativ nutzbar wird. Der richtige Startpunkt ist eine Hypothese. Beispiel: „Office startet einen Script Interpreter, der anschließend eine externe Verbindung aufbaut.“ Diese Hypothese ist deutlich stärker als ein einfacher IOC-Match, weil sie Verhalten beschreibt und damit robuster gegen kleine Variationen bleibt.

Eine gute Regel entsteht in mehreren Schritten. Zuerst wird das Verhalten in beobachtbare technische Merkmale zerlegt. Danach wird geprüft, welche Logquellen diese Merkmale tatsächlich liefern. Anschließend wird die Query formuliert, mit Testdaten validiert und gegen legitime Aktivität abgeglichen. Erst dann folgt Tuning. Viele Projekte überspringen genau diese Reihenfolge und beginnen direkt mit einer Sigma-Regel aus dem Internet. Das führt oft zu Alarmen, die zwar formal korrekt, aber im eigenen Datensatz unbrauchbar sind.

Ein typisches Beispiel ist die Erkennung verdächtiger PowerShell-Nutzung. Wer nur nach „powershell.exe“ sucht, erzeugt wertlose Ergebnisse. Besser ist die Kombination aus Prozessname, verdächtigen Parametern, Parent-Prozess, EncodedCommand, Netzwerkaktivität oder Dateischreibvorgängen. Noch stärker wird die Erkennung, wenn bekannte legitime Quellen ausgeschlossen werden, etwa Softwareverteilung, Administrationsskripte oder Monitoring-Agenten. Genau dieses Tuning zeigt analytische Reife.

Auch Schwellenwerte werden oft falsch gesetzt. Eine Regel für fehlgeschlagene Logins ist ohne Kontext kaum brauchbar. Fünf Fehlversuche in fünf Minuten können bei einem einzelnen Benutzer harmlos sein, bei vielen Konten von einer Quelle aber auf Passwort-Spraying hindeuten. Gute Projekte unterscheiden daher zwischen Brute Force, Spraying, Fehlbedienung und Service-Account-Problemen. Das gelingt nur, wenn Entitäten wie Source IP, Zielkonto, Host, Zeitfenster und Erfolgsereignisse gemeinsam betrachtet werden.

Wer Detection Engineering sauber dokumentiert, kann das später auch in einem Github Cybersecurity Bewerbung oder einem Blog Cybersecurity Bewerbung nachvollziehbar darstellen. Entscheidend ist dabei nicht die Menge der Regeln, sondern die Qualität der Begründung.

Beispielhafte Logik für verdächtige Office->Script-Interpreter-Kette:
1. ParentImage in {winword.exe, excel.exe, outlook.exe}
2. ChildImage in {powershell.exe, cmd.exe, wscript.exe, cscript.exe, mshta.exe}
3. Optional: CommandLine enthält Base64, URL, DownloadString, IEX oder ungewöhnliche Pfade
4. Optional: Nachfolgende Netzwerkverbindung innerhalb kurzer Zeit
5. Ausschlüsse: bekannte Admin-Makros, signierte interne Skripte, Softwareverteilung

Eine solche Regel ist nicht perfekt, aber sie ist erklärbar, testbar und ausbaufähig. Genau das ist im SOC wertvoll.

Use Cases mit echtem Mehrwert: Authentifizierung, PowerShell, DNS und Prozessketten

Ein starkes SOC-Projekt lebt von gut gewählten Use Cases. Besonders geeignet sind Szenarien, die häufig vorkommen, mit überschaubarem Aufwand testbar sind und mehrere Analyseebenen erlauben. Dazu gehören Authentifizierungsanomalien, verdächtige Script-Ausführung, DNS-Auffälligkeiten und ungewöhnliche Prozessketten. Diese Themen zwingen dazu, Host- und Netzwerkdaten zusammenzudenken und nicht nur einzelne Events zu betrachten.

Authentifizierungsanalysen sind deshalb wertvoll, weil sie schnell zeigen, ob mit Entitäten gearbeitet wird. Ein Projekt kann etwa Passwort-Spraying gegen mehrere Konten simulieren und anschließend zwischen normalem Tippfehler-Verhalten und systematischem Angriff unterscheiden. Relevant sind hier Anzahl fehlgeschlagener Logins, Verteilung über Konten, Quelle, Zeitfenster und das Auftreten erfolgreicher Logins danach. Wer zusätzlich Service-Accounts, VPN-Zugänge oder privilegierte Konten separat behandelt, zeigt ein deutlich reiferes Verständnis.

PowerShell-Use-Cases sind im SOC besonders beliebt, werden aber oft zu simpel umgesetzt. Interessant wird das Thema erst, wenn nicht nur der Prozessstart, sondern die gesamte Kette betrachtet wird: Wer hat den Prozess gestartet, mit welchen Parametern, aus welchem Verzeichnis, mit welcher Eltern-Kind-Beziehung, ob Dateien geschrieben wurden und ob Netzwerkkommunikation folgte. Eine harmlose Admin-Aktion und ein initialer Zugriff können auf den ersten Blick ähnlich aussehen. Der Unterschied liegt meist im Kontext.

DNS ist ein hervorragendes Feld für analytische Projekte, weil hier Baselines entscheidend sind. Einzelne ungewöhnliche Domains sind noch kein Incident. Spannend wird es bei hoher Entropie, vielen Subdomains, periodischen Anfragen, seltenen TLDs oder Hosts, die plötzlich neue Kommunikationsmuster zeigen. Wer DNS-Tunneling oder Beaconing untersuchen will, muss deshalb zunächst normales Verhalten verstehen. Ohne Baseline wird jede Auffälligkeit zur Bauchentscheidung.

  • Authentifizierungs-Use-Case: Passwort-Spraying gegen mehrere Benutzer mit Korrelation von Quelle, Zeitfenster und Erfolgsereignissen.
  • PowerShell-Use-Case: Erkennung verdächtiger Parameter, Parent-Prozesse und nachfolgender Netzwerkverbindungen.
  • DNS-Use-Case: Analyse seltener Domains, hoher Subdomain-Varianz und periodischer Anfragen pro Host.

Prozessketten sind besonders stark, weil sie Verhalten modellieren. Ein einzelner Prozessstart ist oft harmlos, eine ungewöhnliche Sequenz dagegen nicht. Office startet Script Interpreter, dieser lädt Datei nach Temp, anschließend startet rundll32 oder regsvr32 und baut eine Verbindung auf: Solche Ketten sind analytisch deutlich aussagekräftiger als isolierte Treffer. Genau solche Projekte eignen sich gut für Projekte Cybersecurity Bewerbung oder Wie Portfolio Cybersecurity, weil sie nicht nur Tool-Nutzung, sondern Denkweise sichtbar machen.

Wichtig ist, jeden Use Case mit klaren Grenzen zu versehen. Wenn eine Erkennung nur auf Windows funktioniert, muss das benannt werden. Wenn DNS-Daten keine Antwortcodes enthalten oder Proxy-Logs fehlen, gehört das in die Projektdokumentation. Genau diese Ehrlichkeit macht Ergebnisse belastbar.

Sponsored Links

Incident-Workflow im Projekt: Triage, Eskalation, Scope und Abschluss sauber abbilden

Viele SOC-Projekte enden beim Alert. Genau dort beginnt in der Realität aber erst die eigentliche Arbeit. Ein belastbares Projekt zeigt deshalb einen vollständigen Incident-Workflow: Eingang eines Alarms, erste Validierung, Kontextanreicherung, Priorisierung, Scope-Bestimmung, Eskalation und Abschlussdokumentation. Wer diesen Ablauf sauber abbildet, demonstriert nicht nur technische Fähigkeiten, sondern operatives Denken.

Die Triage entscheidet, ob ein Alert verwertbar ist. Dazu gehört die Prüfung, ob die Daten vollständig sind, ob das Ereignis reproduzierbar erscheint, ob bekannte legitime Ursachen vorliegen und welche Systeme oder Benutzer betroffen sind. Ein häufiger Fehler ist, zu früh von „kompromittiert“ zu sprechen. Besser ist eine abgestufte Sprache: verdächtig, bestätigungsbedürftig, wahrscheinlich legitim, bestätigter Sicherheitsvorfall. Diese Präzision ist im SOC entscheidend, weil sie Eskalationen steuert und unnötige Betriebsstörungen vermeidet.

Nach der Triage folgt die Scope-Bestimmung. Hier zeigt sich, ob ein Analyst in Entitäten denkt. Ist nur ein Host betroffen oder mehrere? Gibt es denselben Prozess auf anderen Systemen? Taucht dieselbe Domain in weiteren Logs auf? Wurde dasselbe Konto an anderen Stellen verwendet? Gute Projekte zeigen genau diese Pivot-Schritte. Ein einzelner Treffer ist selten ausreichend. Erst durch systematisches Ausweiten oder Eingrenzen entsteht ein belastbares Lagebild.

Eskalation sollte im Projekt nicht als bloßer Satz vorkommen, sondern begründet werden. Warum wird an Incident Response übergeben? Welche Beweise liegen vor? Welche offenen Fragen bleiben? Welche Sofortmaßnahmen wären sinnvoll, ohne die Umgebung unnötig zu stören? Ein SOC-Analyst muss nicht jede Forensik selbst durchführen, aber sauber übergeben können. Das ist besonders relevant für Rollenübergänge in Richtung Bewerbung Incident Responder oder Bewerbung Threat Hunter.

Einfacher Incident-Workflow im Projekt:
- Alert ausgelöst durch verdächtige PowerShell
- Triage: CommandLine, ParentImage, User, Host, Zeitfenster prüfen
- Kontext: DNS, Proxy, weitere Prozessstarts, Dateischreibvorgänge ergänzen
- Scope: Suche nach gleicher Hash, gleicher Domain, gleichem Benutzer auf anderen Hosts
- Entscheidung: False Positive, Monitoring, Eskalation oder Containment-Empfehlung
- Abschluss: Ursache, Evidenz, Grenzen der Analyse, Tuning-Maßnahmen dokumentieren

Der Abschluss ist kein Formalismus. Hier wird festgehalten, was gelernt wurde: Welche Regel war zu breit? Welche Daten fehlten? Welche Felder waren besonders nützlich? Welche Ausschlüsse sind künftig nötig? Genau diese Rückkopplung macht aus einem einmaligen Test ein reifes SOC-Projekt.

Typische Fehler in SOC-Projekten und warum sie analytisch teuer werden

Die häufigsten Fehler in SOC-Projekten sind nicht fehlende Tools, sondern falsche Annahmen. Ein klassischer Fehler ist die Verwechslung von Alerting und Detection. Ein Alarm ist nur ein technischer Trigger. Detection bedeutet, dass ein Verhalten mit ausreichender Qualität erkannt wird, sodass eine sinnvolle Reaktion möglich ist. Wer jede Query als Detection verkauft, ohne False Positives, Abdeckung und Grenzen zu prüfen, baut kein belastbares Projekt.

Ein weiterer Fehler ist fehlende Baseline. Ohne Verständnis für normales Verhalten ist jede Auffälligkeit subjektiv. Das betrifft besonders PowerShell, Admin-Tools, DNS und Authentifizierung. In vielen Umgebungen sind genau die Dinge normal, die in generischen Regeln als verdächtig gelten. Deshalb müssen Projekte zeigen, wie legitime Aktivität erhoben wurde. Selbst eine kleine Baseline über einige Tage ist besser als gar keine. Ohne sie bleibt Tuning blind.

Sehr teuer wird auch schlechte Feldhygiene. Unterschiedliche Hostnamen, fehlende Benutzerkontexte, abgeschnittene Command Lines oder uneinheitliche Zeitstempel zerstören Korrelationen. Viele Einsteiger merken das erst spät, wenn Regeln scheinbar „nicht funktionieren“. Tatsächlich liegt das Problem oft im Ingest, Parsing oder Mapping. Ein gutes Projekt benennt solche Probleme offen und dokumentiert, wie sie behoben wurden.

Ebenso problematisch ist die Überbewertung von IOCs. Hashes, Domains und IPs sind nützlich, aber vergänglich. Wer Projekte nur auf IOC-Matching aufbaut, zeigt wenig Verständnis für verhaltensbasierte Erkennung. In realen Umgebungen ändern Angreifer Infrastruktur schnell. Robuster sind Muster wie ungewöhnliche Parent-Child-Beziehungen, verdächtige Parameter, seltene Prozesspfade oder atypische Authentifizierungssequenzen.

  • Zu breite Regeln ohne Baseline erzeugen Alarmmüdigkeit und verdecken echte Signale.
  • Fehlende Dokumentation von Datenqualität führt dazu, dass Detection-Probleme falsch interpretiert werden.
  • Nur auf IOCs zu setzen macht Projekte fragil und operativ wenig belastbar.

Ein weiterer häufiger Fehler ist unrealistische Angriffssimulation. Wenn nur offensichtliche Testkommandos ausgeführt werden, entstehen Regeln, die nur das eigene Lab erkennen. Besser ist eine Mischung aus harmloser Admin-Aktivität, normalem Benutzerverhalten und vorsichtig simulierten Angriffsmustern. Nur dann zeigt sich, ob eine Erkennung wirklich zwischen legitim und verdächtig unterscheiden kann.

Wer solche Fehler systematisch vermeidet, verbessert nicht nur Projekte, sondern auch die Darstellung in Unterlagen wie Lebenslauf Soc Analyst oder Bewerbung Soc Analyst. Dort wirken Projekte deutlich stärker, wenn nicht nur Erfolge, sondern auch Tuning, Grenzen und Lernschritte nachvollziehbar beschrieben werden.

Sponsored Links

Dokumentation, Metriken und Nachvollziehbarkeit: so wird aus Technik ein belastbares Ergebnis

Ein SOC-Projekt ist erst dann überzeugend, wenn die Ergebnisse nachvollziehbar dokumentiert sind. Gute Dokumentation bedeutet nicht, jede Konfigurationsdatei vollständig abzudrucken. Relevant sind Ziel, Architektur, Datenquellen, Use Case, Erkennungslogik, Testmethode, Ergebnisse, False Positives, Tuning und offene Grenzen. Wer diese Punkte sauber strukturiert, zeigt, dass nicht nur gebaut, sondern auch analytisch gearbeitet wurde.

Metriken helfen, Projekte objektiver zu machen. Auch in kleinen Labs lassen sich sinnvolle Kennzahlen erfassen: Anzahl der Alerts vor und nach Tuning, Verhältnis von True Positives zu False Positives, Zeit bis zur ersten Einordnung, Anzahl betroffener Hosts, Häufigkeit bestimmter legitimer Muster oder Abdeckung eines Use Cases über verschiedene Datenquellen. Solche Zahlen müssen nicht perfekt sein, aber sie machen Entscheidungen nachvollziehbar.

Wichtig ist, Metriken nicht zu missbrauchen. Eine niedrige Alert-Zahl ist nicht automatisch gut, wenn die Regel dadurch blind wird. Ebenso ist eine hohe Trefferzahl kein Qualitätsmerkmal, wenn fast alles Rauschen ist. Gute Analysten dokumentieren deshalb immer den Trade-off zwischen Sensitivität und Präzision. Gerade im SOC ist diese Balance zentral: zu breit erzeugt Müdigkeit, zu eng verpasst Angriffe.

Auch die Testmethode gehört in die Dokumentation. Wurden Kommandos manuell ausgeführt? Wurden harmlose Varianten und verdächtige Varianten verglichen? Gab es Wiederholungen zu verschiedenen Zeiten? Wurden mehrere Benutzerkontexte getestet? Ohne solche Angaben bleibt unklar, wie belastbar die Ergebnisse sind. Ein Projekt, das seine Testgrenzen offenlegt, wirkt deutlich professioneller als eines, das nur Endergebnisse präsentiert.

Für die Aufbereitung nach außen ist eine klare Struktur hilfreich: Problem, Datenlage, Detection, Triage, Ergebnis, Verbesserung. Wer diese Form konsequent nutzt, kann Projekte später auch in einem Portfolio Ohne Erfahrung It Security oder unter Projekte Soc Analyst konsistent darstellen. Entscheidend ist, dass jede Aussage auf beobachtbaren Daten basiert und nicht auf Vermutungen.

Beispiel für eine knappe Projektdokumentation:
Titel: Erkennung verdächtiger PowerShell mit nachfolgender Netzwerkaktivität
Ziel: Reduktion von Fehlalarmen bei Script-Ausführung
Datenquellen: Sysmon Event ID 1 und 3, DNS-Logs
Testfälle: Admin-Skript, Softwareverteilung, EncodedCommand, DownloadString
Ergebnis: 18 Alerts vor Tuning, 4 Alerts nach Tuning, 3 davon relevant
Grenzen: Kein Proxy-Log, keine Script Block Logs, nur Windows-Hosts im Scope

Genau diese Form der Nachvollziehbarkeit macht Projekte belastbar und anschlussfähig für reale SOC-Arbeit.

Wie SOC-Projekte fachlich stark präsentiert werden

Die Präsentation eines SOC-Projekts entscheidet oft darüber, ob technische Tiefe überhaupt erkannt wird. Viele beschreiben nur Tools und Schlagworte: SIEM aufgebaut, Logs gesammelt, Alerts erstellt. Das ist zu wenig. Fachlich stark wirkt eine Darstellung dann, wenn Problem, Datenlage, Analyseweg und Ergebnis klar voneinander getrennt sind. Ein Leser muss verstehen können, welche Frage beantwortet wurde und warum die gewählte Methode sinnvoll war.

Besonders überzeugend ist eine Darstellung entlang eines realen Analysten-Workflows. Statt „PowerShell Detection gebaut“ ist präziser: „Verdächtige PowerShell-Ausführung auf Windows-Hosts anhand von CommandLine, Parent-Prozess und nachfolgender Netzwerkaktivität erkannt, gegen legitime Admin-Skripte abgegrenzt und False Positives durch Ausschlüsse reduziert.“ Diese Formulierung zeigt sofort mehr Reife, weil sie Verhalten, Datenquellen und Tuning enthält.

Wichtig ist auch, Grenzen nicht zu verstecken. Wenn nur ein kleines Lab vorhanden war, ist das kein Problem, solange klar wird, was getestet wurde und was nicht. Ein sauber abgegrenztes Projekt mit ehrlicher Bewertung wirkt deutlich stärker als ein übertriebener Anspruch ohne belastbare Evidenz. Gerade im SOC ist Glaubwürdigkeit zentral. Wer Unsicherheit sauber benennt, wirkt professioneller als jemand, der jede Beobachtung überinterpretiert.

Für Unterlagen und Gespräche lohnt es sich, jedes Projekt in drei Ebenen erklären zu können: kurz in einem Satz, fachlich in wenigen Absätzen und tief technisch mit Query-Logik, Feldern und Tuning-Entscheidungen. Diese Staffelung ist besonders nützlich für Vorstellungsgespraech Soc Analyst, Anschreiben Soc Analyst und Bewerbung Blue Team. Dort zählt nicht nur, dass ein Projekt existiert, sondern dass es fachlich sauber erklärt werden kann.

Ein starkes Projektprofil enthält daher keine bloße Toolliste, sondern konkrete Aussagen zu Datenquellen, Erkennungslogik, Triage, Scope und Verbesserungen. Wer zusätzlich zeigt, welche Fehler im Verlauf aufgetreten sind und wie sie behoben wurden, vermittelt genau die Arbeitsweise, die im SOC täglich gebraucht wird: präzise beobachten, Hypothesen prüfen, sauber dokumentieren und kontinuierlich nachschärfen.

Weiter Vertiefungen und Link-Sammlungen