Lernpunkte für die Prüfung
Im Rahmen dieser Prüfung sollten Sie in der Lage sein, diese Aufgaben auszuführen:
Verstehen und Arbeiten mit ereignisgesteuerten Anwendungen mit AMQ Streams API.
- Wissen, wie man Daten aus Kafka sendet und liest.
- In der Lage sein, Microservices und andere Arten von Anwendungen zu entwickeln, um Daten mit extrem hohem Durchsatz und geringer Latenz gemeinsam zu nutzen.
Verstehen des Kafka-Ökosystems und der Architektur:
- Wie man Themen erstellt, konfiguriert und verwaltet.
- Wie man das Ökosystem so konfiguriert, dass Daten mit extrem hohem Durchsatz und geringer Latenz gemeinsam genutzt werden können.
- Wie skalieren und garantieren Sie die Nachrichtenbestellung?
- Nachrichtenverdichtung, um alte Datensätze zu entfernen, und wie man sie einstellt.
- Konfiguration und Nutzung der Replikation von Daten zur Steuerung der Fehlertoleranz.
- Aufbewahrung großer Datenmengen für den sofortigen Zugriff.
Verstehen und Arbeiten mit einer Quarkus-Anwendung, die mit Kafka verbunden ist
- Verbindung zu Kafka mit Reactive Messaging
- Verbindung zu Apache Kafka mit seiner nativen API
- Nachrichten produzieren und konsumieren und ereignisgesteuerte und datengesteuerte Anwendungen implementieren
- Sie sollten mit den von Quarkus verwendeten reaktiven Bibliotheken vertraut sein: Asynchronous Java oder Publisher API, RxJava oder Reactor APIs, Mutiny, usw.
Bereitstellen und Konfigurieren des Zugangs zu einem Kafka-Cluster.
- Sie müssen in der Lage sein, auf die externen Listener von Kafka in der Cloud zuzugreifen. Im Falle von Kubernetes oder Red Hat OpenShift stellen Sie die Verbindung über Knotenports, Load Balancer und extern über eine Ingress- oder OpenShift-Route her.
- Verstehen, wie man die Sicherheit der Kommunikation zwischen dem Kafka-Client und dem Cluster konfiguriert.
- Nachrichten produzieren und konsumieren und ereignisgesteuerte und datengesteuerte Anwendungen implementieren
- Verstehen und Bereitstellen der Kafka-Client-Konfiguration für die erforderliche Authentifizierungs- und Autorisierungssicherheit.
Bereitstellung und Verwendung des Schemas Red Hat Service Registry zur Entkopplung der Daten von Client-Anwendungen, gemeinsame Nutzung und Verwaltung der Datentypen zur Laufzeit:
- Verstehen und Arbeiten mit den verschiedenen Kafka Streams APIs wie Streams DSL und Processor API.
- Konfigurieren und Bereitstellen der richtigen Kafka SerDes (Serializer/Deserializer) für die Datensätze, um die Daten korrekt zu materialisieren
- In der Lage sein, Daten aus einem oder mehreren Eingabeströmen zu empfangen, komplexe Operationen wie Zuordnung, Filterung oder Verknüpfung, Neuaufteilung und/oder Gruppierung durchzuführen und die Ergebnisse in einen oder mehrere Ausgabeströme zu schreiben.
- Verstehen Sie die Stream-Table-Dualität und führen Sie zustandsabhängige Operationen wie Joins, Aggregationen und Windowed Joins durch.
- Verstehen, wie man benutzerdefinierte Prozessoren und Transformatoren definiert und verbindet, um mit Zustandsspeichern unter Verwendung der Prozessor-API zu interagieren.
- Verstehen Sie die Ereignismanipulation, die neue Sammlungen aus bestehenden ableitet und Änderungen zwischen ihnen beschreibt.
Datenintegration mit Kafka Connect:
- Verstehen Sie, wie Kafka Connect Zuverlässigkeit und Skalierbarkeit bei der Datenübertragung zwischen Kafka und anderen heterogenen Datensystemen bietet.
- Verstehen Sie, wie Kafka Connect die Datenkonvertierung, -umwandlung und das Offset-Management erleichtert.
- Wenden Sie die Erkennung und Erfassung von Datenänderungen (CDC) mit Debezium an.
- Verstehen der verschiedenen Einzelplatz-/Verteilungsbetriebsarten und ihrer Anwendungsfälle.
- Verwenden Sie die vorgefertigten AMQ-Streams-Konnektoren.
Verstehen und Anwenden fortgeschrittener ereignisgesteuerter Muster in Anwendungen, die auf Apache Kafka basieren:
- Erkennen und Arbeiten in einer Anwendung mit Event Sourcing und CQRS-Mustern
- Sie kennen und arbeiten mit fortgeschrittenen Techniken wie langlaufenden Geschäftstransaktionen mit Saga-Orchestrierung und Outbox-Patterns zum Austausch von Daten zwischen verschiedenen Diensten.
Behebung der häufigsten Probleme in ereignisgesteuerten Anwendungen, wie z. B. Aufrechterhaltung der Nachrichtenreihenfolge, Wiederholungen und Leerlauf, Behandlung doppelter Ereignisse, Implementierung von Streams-Testfällen
- Während der Prüfung werden Sie möglicherweise mit einer oder mehreren vorgefertigten Java-Anwendungen arbeiten müssen. Sie werden einige Teile des Anwendungscodes ändern müssen.
Wie bei allen leistungsbasierten Prüfungen von Red Hat müssen die Konfigurationen nach einem Neustart ohne Eingreifen bestehen bleiben.