Engineering-Assessments für das AI-Zeitalter
Kandidat:innen arbeiten am echten Repo, mit eigenen AI-Tools. Sie klären unterspezifizierte Anforderungen über einen PO-Chatbot und liefern einen PR. Sie bewerten echte Arbeit, nicht Rätsel.
Aktuell 3 kostenlose Pilotprojekte im DACH-Raum.
Das Problem
Leetcode und klassische Take-Homes liefern kaum noch Signal.
Kandidat:innen lösen sie in 10 Minuten mit Claude oder Copilot. Sie sehen, wer ein Tool bedienen kann. Nicht, wer Probleme löst.
Der eigentliche Job eines Engineers hat sich verschoben: unklare Anforderungen verstehen, mit AI zusammenarbeiten, im Business-Kontext Entscheidungen treffen.
Genau das messen klassische Assessments nicht.
Wie Arena funktioniert
Vom Klonen bis zur Rubrik
- 1.Kandidat klont ein echtes Repo.
- 2.Aufgabe ist bewusst unterspezifiziert. Ein PO-Chatbot beantwortet Rückfragen, lässt Mehrdeutigkeit aber gezielt stehen.
- 3.Kandidat arbeitet in eigener IDE, mit eigenen AI-Tools, im eigenen Tempo.
- 4.Push auf Feature-Branch, öffnet PR.
- 5.Sie bewerten Commits, Diff, Tests und PO-Transkript gegen eine Rubrik.
Was gemessen wird
Signale aus echter Arbeit
- ·Problemidentifikation unter Mehrdeutigkeit
- ·Requirements-Klärung und Kommunikation
- ·Code-Qualität unter echten Constraints
- ·Entscheidungen, nicht Syntax
Warum jetzt
Jedes Unternehmen stellt Engineers ein, die mit AI arbeiten.
Kein Unternehmen misst es sauber. Arena schließt genau diese Lücke.
Founder
Dominik Opwis
Engineer
Zuvor Produkt- und Plattformarbeit in Startups und SaaS-Teams; jetzt Fokus auf Hiring-Assessments, die zeigen, wie Engineers wirklich mit KI arbeiten.
Basierend in Deutschland. Hosting in EU (Neon Frankfurt).
Pilotprojekte
Ich führe aktuell 3 kostenlose Pilotprojekte durch. Test entweder mit einem echten Bewerber oder mit einem bereits eingestellten Engineer als Kalibrierungs-Benchmark.