Methodik

Wie wir KI-Exposition bewerten

Lunigis "AI-sicher"-Filter stützt sich auf einen öffentlichen Datensatz, der US-Berufe von 0 bis 10 bewertet. Hier steht genau, woher die Zahl stammt, was sie aussagt – und was nicht – und wann du sie ignorieren solltest.

Zuletzt aktualisiert:

Die ehrliche Antwort

  • Wir messen nicht deinen konkreten Job. Wir ordnen ihn dem nächstgelegenen US-Beruf in einem veröffentlichten Datensatz zu und zeigen dessen Score an.
  • Die Quelle ist Josh Kales "AI Exposure of the US Job Market": 343 US-Berufe, von Gemini Flash auf einer 0–10-Skala bewertet, basierend auf Daten des US Bureau of Labor Statistics.
  • Behandle den Score als Richtwert und Filter, den du übersteuern kannst – nicht als Beweis, dass ein konkreter Job vor KI-Veränderungen geschützt ist.

Woher die Daten stammen

Lunigis KI-Expositions-Score stammt aus einem öffentlichen Datensatz von Josh Kale unter joshkale.github.io/jobs/. Er deckt 343 US-Berufe ab (~143 Millionen Jobs laut US Bureau of Labor Statistics) und bewertet jeden auf einer Skala von 0 bis 10 mit Googles Gemini-Flash-Modell. Datensatz und Quellcode sind offen auf GitHub einsehbar. Wir berechnen keinen eigenen Score darauf.

Quelldatensatz öffnen

Die 0–10-Skala

Jeder Beruf fällt in eine von fünf Stufen. Die Farbabstufungen entsprechen dem Original-Treemap.

Minimal (0–1)

Praktisch keine Überschneidung zwischen aktuellen KI-Fähigkeiten und der eigentlichen Tätigkeit.

Niedrig (2–3)

Geringe Überschneidung. KI beschleunigt einzelne Aufgaben; der Kern der Tätigkeit liegt weiter bei Menschen.

Mittel (4–5)

Spürbare Überschneidung. KI verändert Teile des Workflows; die Rolle dürfte sich weiterentwickeln.

Hoch (6–7)

Viele Aufgaben sind bereits automatisierbar. Spürbare Umstrukturierung der Rolle ist zu erwarten.

Sehr hoch (8–10)

Der Großteil der Arbeit ist gegenüber heutiger KI stark exponiert. Erhebliches Ersetzungsrisiko über mehrere Jahre.

Wie wir deinen Job auf einen Score abbilden

Für jede Stellenanzeige identifiziert der Bot den nächstgelegenen US-BLS-Beruf und zeigt dessen Score aus dem Datensatz an. Es gibt kein zusätzliches LLM-Scoring pro Anzeige, keine Zeitreihen-Vorhersage und keine arbeitgeberspezifische Anpassung im Score. Unser Filter wird gegen diesen Lookup-Wert angewandt.

Was der Score nicht ist

  • Keine Garantie. KI-Fähigkeiten und Arbeitsmärkte entwickeln sich schneller als jeder statische Score.
  • Nicht arbeitgeberspezifisch. Zwei Anzeigen mit gleichem Titel erhalten dieselbe Zahl – auch wenn sich die Unternehmen stark unterscheiden.
  • Kein Ersatz für eigene Einschätzung. Ein hoher Score heißt nicht, dass die Rolle verloren ist; ein niedriger nicht, dass sie sicher ist.
  • Empfindlich gegenüber Mapping-Fehlern. Lässt sich ein Stellentitel nicht sauber einem BLS-Beruf zuordnen, kann der angezeigte Score in die Irre führen.
  • Festgehalten zum Veröffentlichungsdatum des Datensatzes. Die Zahl ändert sich nur, wenn der zugrunde liegende Datensatz neu erscheint.
  • Auf US-Kategorien gebaut. Jobs im DACH-Raum werden auf den nächsten US-Beruf abgebildet – das passt oft, aber nicht immer sauber.

Wann du dem Score misstrauen solltest

Vorsicht insbesondere bei: neuen Hybrid-Rollen, die mehrere Berufe verbinden; sehr spezialisierten Nischen, die breite BLS-Kategorien nicht abbilden; Rollen, deren Titel und Tagesgeschäft stark auseinanderfallen; und jüngeren Verschiebungen, die nach Veröffentlichung des Datensatzes liegen.

Wie wir den Score in deinen E-Mails verwenden

Wir filtern Rollen oberhalb einer Schwelle aus, die der Bot an deinen Vorlieben ausrichtet, und nennen die 0–10-Zahl im KI-Risiko-Hinweis, der mit jedem Job in deiner Tages-E-Mail mitgeschickt wird. Über dein "passt" / "passt nicht"-Feedback kannst du den Filter jederzeit übersteuern – der Bot stellt sich beim nächsten Versand entsprechend nach.

Quellen

    Wie wir KI-Exposition bewerten – Methodik | Lunigi