Engineering-Assessments für das AI-Zeitalter

Kandidat:innen arbeiten am echten Repo, mit eigenen AI-Tools. Sie klären unterspezifizierte Anforderungen über einen PO-Chatbot und liefern einen PR. Sie bewerten echte Arbeit, nicht Rätsel.

Aktuell 3 kostenlose Pilotprojekte im DACH-Raum.

Das Problem

Leetcode und klassische Take-Homes liefern kaum noch Signal.

Kandidat:innen lösen sie in 10 Minuten mit Claude oder Copilot. Sie sehen, wer ein Tool bedienen kann. Nicht, wer Probleme löst.

Der eigentliche Job eines Engineers hat sich verschoben: unklare Anforderungen verstehen, mit AI zusammenarbeiten, im Business-Kontext Entscheidungen treffen.

Genau das messen klassische Assessments nicht.

Wie Arena funktioniert

Vom Klonen bis zur Rubrik

  1. 1.Kandidat klont ein echtes Repo.
  2. 2.Aufgabe ist bewusst unterspezifiziert. Ein PO-Chatbot beantwortet Rückfragen, lässt Mehrdeutigkeit aber gezielt stehen.
  3. 3.Kandidat arbeitet in eigener IDE, mit eigenen AI-Tools, im eigenen Tempo.
  4. 4.Push auf Feature-Branch, öffnet PR.
  5. 5.Sie bewerten Commits, Diff, Tests und PO-Transkript gegen eine Rubrik.

Was gemessen wird

Signale aus echter Arbeit

  • ·Problemidentifikation unter Mehrdeutigkeit
  • ·Requirements-Klärung und Kommunikation
  • ·Code-Qualität unter echten Constraints
  • ·Entscheidungen, nicht Syntax

Warum jetzt

Jedes Unternehmen stellt Engineers ein, die mit AI arbeiten.

Kein Unternehmen misst es sauber. Arena schließt genau diese Lücke.

Founder

Dominik Opwis

Engineer

Zuvor Produkt- und Plattformarbeit in Startups und SaaS-Teams; jetzt Fokus auf Hiring-Assessments, die zeigen, wie Engineers wirklich mit KI arbeiten.

Basierend in Deutschland. Hosting in EU (Neon Frankfurt).

Pilotprojekte

Ich führe aktuell 3 kostenlose Pilotprojekte durch. Test entweder mit einem echten Bewerber oder mit einem bereits eingestellten Engineer als Kalibrierungs-Benchmark.