Testplattform
SDVA-Testplattform: Laufzeitkonfiguration, Low-Latency-Switching, Remote-Nutzung.
Die OSxCAR SDV Test Bench ist eine skalierbare, laufzeitkonfigurierbare Testplattform für Software-Defined Vehicles: Schnellere Validierung, flexible Architekturen, ein Testbench für vielfältige Einsatzszenarien. Modulare Hardware (t.RECS), Physical-Layer-Switching, Remote-Zugriff und KI-gestützte Optimierung.
Laufzeit-Rekonfiguration
Software-defined Topologien – Szenarien flexibel wechseln, keine Hardware-Umbauten.
Modulare Hardware
t.RECS mit Standard-Formfaktoren (SMARC, COM-HPC) – x86, ARM, RISC-V, GPU/FPGA-ready.
Flexible Architekturen
Legacy-Domänen, Zonen-Controller, Zentral-Computer – alle E/E-Topologien in einer Testbench.
HIL/SIL + Shadow Mode
Hardware- und Software-in-the-Loop, A/B-Testing parallel zur Produktion.
- Effizientere Validierung: Testzyklen durch Software-Rekonfiguration statt Hardware-Umbau deutlich reduzieren
- Kostenpotenzial: Eine Testbench für verschiedene Fahrzeugarchitekturen statt separater Hardware-Duplikate
- Skalierbarkeit: Plattform wächst mit SDV-Anforderungen (L2+ bis L3+ Autonomie)
- KI-Integration: Realistische Latenz-Daten für GNN-Training sammeln
Software-Defined Vehicles benötigen flexible Testumgebungen für unterschiedliche Fahrzeugarchitekturen (von Legacy-Domänen bis Zentral-Computer, L2+ bis L3 Autonomie). Traditionelle Setups sind fix verdrahtet – Hardware-Umbauten sind zeitaufwändig. Die OSxCAR Testbench löst dies durch Physical-Layer-Switching: Topologien dynamisch umkonfigurieren, keine Kabel-Steckerei.
- Hardware-Duplikate: Jeder Partner eigene Infrastruktur → Kosten, CO₂
- Langsam: Umbau dauert lange, verzögert Validierung
- Daten-Silos: Keine zentrale Sammlung für KI-Training
- Software-defined: Schnelle Umkonfiguration, keine Hardware-Änderung
- Agil: Szenarien rasch wechseln statt langer Umbauzeiten
- KI-ready: Zentrale Datensammlung für GNN-Training
OSxCAR-Integration: Remote-Zugriff erlaubt ortsunabhängiges Testen – Wasm-Module validieren, KI-Modelle trainieren, ohne Zielhardware vor Ort. Zentrale Bench reduziert Hardware-Duplikate und CO₂-Fußabdruck.
Die Testbench kombiniert Physical-Layer-Switching (Schaltmatrix) mit RECS-Microservern und heterogenen Compute-Nodes. Das Kernprinzip: Signale physikalisch umschalten statt virtuell routen – minimale Latenz, realistische Jitter-Charakteristik.
- Schalt-Matrix: Physical-Layer-Switching – Signale direkt umschalten, skalierbar von 8×8 bis 64×64 Ports, bus-agnostisch (Ethernet, CAN, LIN)
- RECS-Microserver: Thermal-optimierte t.RECS-Module – erweiterbar mit GPU/FPGA für KI-Workloads
- Compute-Nodes: x86 (High-Performance), ARM (Power-efficient), RISC-V (Open-Source-ISA), FPGA/ASIC (Custom Accelerators)
- Metriken: Hardware-Timestamps, µs-Jitter-Analyse, Prometheus/Grafana-Telemetrie, ELK-Logging
Unterstützt Standard-Formfaktoren wie SMARC, COM-HPC und COM-Express – ideal für OEM-Integration und Drittanbieter-Module. Skaliert von Low-Power (ARM Cortex-A) bis High-Performance (x86). Modularer Aufbau erlaubt GPU/FPGA/ASIC-Integration. TSN-Support für deterministische Latenz.
Die Schaltmatrix verbindet ECUs, Sensoren und Aktuatoren auf Physical-Layer – laufzeitkonfigurierbare Topologien ohne Hardware-Umbau. Latenz-/Jitter-sensible Pfade werden charakterisiert (entscheidend für ISO 26262).
Die Testbench unterstützt alle relevanten Automotive-Bus-Systeme: Von Low-Speed-LIN über robuste CAN-Netze bis zu deterministischem TSN. Jedes Bus-System kann über die Schaltmatrix flexibel verschaltet werden. Standard: IEEE 802.1 TSN Speed: 1 Mbit/s (CAN), 8 Mbit/s (FD) Speed: Bis 20 kbit/s Latenz-Messung: Hardware-TimestampsEthernet / TSN
Speed: 100M / 1G / 10G
QoS: Time-Aware Shaper
Use Case: Zonen-Backbone, ADASCAN / CAN-FD
Robustheit: Differentiell, fehlertolerant
Payload: 8 Byte (CAN), 64 Byte (FD)
Use Case: Powertrain, ChassisLIN
Topologie: Single-Master
Kosten: Sehr günstig
Use Case: Komfort, SensorenMetriken
Jitter-Analyse: µs-Auflösung
Telemetrie: Prometheus, Grafana
Logging: ELK-Stack
TSN-Integration: Die Testbench nutzt TSN für deterministische Latenz-Garantien – kritisch für ADAS und Fahrdynamik-Regelung. Time-Aware Shaper (TAS) und Per-Stream Filtering (PSFP) werden in der Bench konfiguriert und validiert.
CAN-FD-Vorteile: Höhere Datenrate als Standard CAN und größere Payloads reduzieren Bus-Last.
Software-defined Topologien sind der Kern der SDVA-Testbench: Szenarien werden per Konfigurationsdatei definiert und zur Laufzeit auf die Schaltmatrix geladen. Keine Hardware-Umbauten, keine Kabel-Steckerei – nur Software-Update.
Use Cases für Rekonfiguration:
- L2+ → L3 Migration: Zentral-Computer hinzufügen, Zonen-Controller umkonfigurieren
- Gateway-Tests: CAN↔Ethernet-Gateway in verschiedenen Topologien testen
- Failover-Szenarien: ECU-Ausfall simulieren, Redundanz-Pfade aktivieren
- TSN-Konfigurationen: Verschiedene QoS-Profile (VLAN, Prioritäten) testen
Beispiel-Workflow: (1) Topologie definieren (Knoten, Links, Bus-Typen), (2) Schaltmatrix-Config generieren (automatisch), (3) Config auf Bench deployen (REST-API), (4) Umschaltung triggern, (5) Validierung (Latenz-Messung, Connectivity-Check).
Die Bench protokolliert alle Umschaltungen (Timestamp, Config-Hash, User) – wichtig für TISAX-Audits und Reproduzierbarkeit. Configs werden versioniert (Git) und signiert.
Die SDVA-Testbench ist cloud-basiert zugänglich: Partner reservieren Zeit-Slots, deployen Software remote und greifen auf Mess-Daten zu – ohne vor Ort zu sein. Multi-Tenant-Architektur garantiert Datenisolation gemäß TISAX. Zeit-Slots: Reservierungssystem (Kalender-basiert) TISAX-konform🎯 Management
Multi-Tenant: Parallele Nutzung, isolierte Datenräume
Deployment: Software-Upload via REST-API
Monitoring: Live-Telemetrie (Grafana-Dashboards)🔒 Security (geplant, derzeit aber optional)
Datenisolatiert
Verschlüsselt
Audit-Trail
Reservierungssystem: Partner buchen Zeit-Slots (z.B. 2 Stunden) über Web-Interface. Während des Slots haben sie exklusiven Zugriff auf konfigurierbare Ressourcen (Schaltmatrix, RECS-Nodes). Gemeinsame Ressourcen (z.B. zentrale Logging-Infrastruktur) bleiben mandantenfähig.
Software-Deployment: Wasm-Module werden via REST-API hochgeladen, signiert und auf RECS-Nodes deployed. Schneller Rollback möglich. Native Binaries (x86/ARM) ebenfalls unterstützt, aber Wasm bevorzugt (Portabilität, Sicherheit).
Mess-Pfade sind essenziell für Bench-Validierung und KI-Training: Latenz, Jitter, Throughput werden auf µs-Ebene erfasst. Hardware-Timestamps (FPGA-basiert) eliminieren Software-Overhead.
Telemetrie-Stack:
- Prometheus: Metriken-Sammlung (CPU, Memory, Bus-Load, Latenz)
- Grafana: Live-Dashboards (Zeitreihen, Heatmaps)
- ELK-Stack: Log-Aggregation (Elasticsearch, Logstash, Kibana)
- Jaeger: Distributed Tracing (für Wasm-Module)
Integration mit KI: Die Bench sammelt realistische Daten für GNN-Training. Topologie-Graphen (Knoten=ECUs, Kanten=Bus-Links) + Latenz-Messungen werden exportiert (CSV, Parquet). GNN-Modelle lernen Latenz-Prognosen für verschiedene E/E-Architekturen und optimieren Software-Platzierung. Validierung im Shadow-Mode.
Erweiterte Testfunktionen:
- HIL (Hardware-in-the-Loop): Reale ECUs mit simulierten Sensoren/Aktuatoren – echte Signale, kontrollierte Umgebung
- SIL (Software-in-the-Loop): Rein software-basierte Validierung vor Hardware-Verfügbarkeit
- A/B Shadow Mode Testing: Neue Softwareversion parallel zur Heuristik laufen lassen – Vorschläge loggen, nicht anwenden. Validierung ohne Production-Risk
- Testframework: Integrierte Ergebnissammlung, Visualisierung (Grafana), Audit-Trail für ISO 26262
Wasm-Integration: Wasm-Module laufen identisch auf Laptop, Bench und Zielhardware – reproduzierbare Tests. Deterministische Umgebung (AoT) für Latenz-Charakterisierung. Trace-Daten zeigen Interop-Overhead.
Warum konfigurierbare Testbench statt fixer Hardware-Setups?
Flexibilität: Software-defined Topologien erlauben schnelle Szenario-Wechsel ohne Hardware-Umbau (Umschaltzeit <1 ms).
Kostenreduktion: Zentrale Bench statt Hardware-Duplikate bei jedem Partner – messbare CO₂-Einsparungen.
Datensammlung: Bench liefert realistische Daten für GNN-Training.
Was ist der Unterschied zwischen Bench-Tests und Simulation?
Bench: Nutzt reale Hardware (RECS, echte Bus-Systeme), liefert realistische Latenz-/Jitter-Daten.
Simulation (OMNeT++, Mininet): Rein software-basiert, skaliert besser für viele Szenarien, aber weniger realistische Timings.
Best Practice: Simulation für Exploration, Bench für Validierung.
Welche Latenz-Anforderungen erfüllt die Schaltmatrix?
Physical-Layer Switching: Ziel ist minimale Latenz und schnelle Umschaltzeiten, kritisch für TSN und Echtzeit-Tests. Charakterisierung vor Einsatz geplant.
Use Cases: ADAS, Fahrdynamik-Regelung, Safety-kritische Pfade.
Wie funktioniert Remote-Zugriff TISAX-konform?
Zeit-Slot-Reservierung: Web-Interface, exklusiver Zugriff während Slot.
Multi-Tenant-Isolation: Separate Namespaces, VLANs, verschlüsselt (TLS 1.3).
Keine Produktionsdaten: Nur Bench-generierte Daten, pseudonymisierte Test-Daten erlaubt.
Audit-Trail: Alle Zugriffe protokolliert (TISAX VDA ISA 6.0 Level 3).
Hinweis: TISAX und Security-elemente sind geplant, aber derzeit optional.
Welche E/E-Architekturen werden unterstützt?
Legacy-Domänen: Dezentrale Steuergeräte nach Funktionen getrennt (Powertrain, Chassis, Infotainment).
Zonen-Controller: Regional gruppierte Controller nach Fahrzeugbereichen (vorne, hinten, links, rechts).
Zentral-Computer: Hochintegrierte Plattformen (L3+ Autonomie, alle Funktionen zentralisiert).
Testbench-Vorteil: Alle Stufen in einer Plattform testbar – Migrations-Szenarien validieren.
Welche RECS-Varianten und Formfaktoren werden unterstützt?
t.RECS: Thermal-optimiert (x86), für High-Performance (ADAS). Unterstützt Standard-Formfaktoren:
SMARC: Ultra-Low-Power (ARM Cortex-A), ideal für Sensor-Nodes.
COM-HPC: High-Performance (x86, GPU-ready), für Zentral-Computer.
COM-Express: Industrial-Standard, breite Vendor-Unterstützung.
TSN-fähig, verschiedene Architekturen (x86, ARM, RISC-V).
Was ist der Unterschied zwischen HIL, SIL und Shadow Mode Testing?
HIL (Hardware-in-the-Loop): Reale ECUs + simulierte Umgebung – echte Hardware-Validierung.
SIL (Software-in-the-Loop): Rein software-basiert – Validierung vor Hardware-Verfügbarkeit.
Shadow Mode (A/B Testing): KI-Modelle parallel zu Produktion – Vorschläge loggen, nicht anwenden. Validierung ohne Risk.
Use Case: SIL → HIL → Shadow Mode → Production (schrittweise Validierung).
Wie integriert die Testbench mit Wasm und KI?
Wasm: Module laufen identisch auf Laptop, Bench, Zielhardware – reproduzierbare Tests. Bench liefert deterministische Umgebung (AoT-Kompilierung) für Latenz-Charakterisierung.
KI: Bench sammelt Topologie-Graphen + Latenz-Messungen → GNN-Training (Latenzprognose, Platzierung). Validierung im Shadow-Mode.
Weitere Technologie-Seiten: SDV-Plattform · Künstliche Intelligenz · WebAssembly


