KI ohne Hype: Ihr Wetterdienst liegt nicht falsch, er schätzt

KI ohne Hype: Ihr Wetterdienst liegt nicht falsch, er schätzt

Letzten Sommer hatte ich Freunde zum Kaffee auf die Terrasse eingeladen. Die App sagte Sonne. Wir haben drinnen Kaffee getrunken.

Was mich geärgert hat, hat mich auch beschäftigt. Nicht wegen des verpassten Sonnenscheins – sondern weil ich verstehen wollte, was mir die App eigentlich gesagt hatte.

Was bedeutet „30% Regenwahrscheinlichkeit“ eigentlich?

Wir lesen eine Prozentzahl und denken: entweder stimmt sie, oder sie stimmt nicht. Die App sagte Sonne – also hat sie falsch gelegen.

Aber das ist nicht, was die App gesagt hat.

Ein Wettermodell analysiert eine enorme Menge historischer Wetterdaten und identifiziert Variablen, anhand derer sich Tage voneinander unterscheiden lassen – Luftdruck, Temperatur, Luftfeuchtigkeit, Windrichtung und viele mehr. Und natürlich weiß das Modell, an welchen dieser Tage es geregnet hat.

Wenn jetzt ein neuer Tag prognostiziert werden soll, fragt das Modell im Kern: Wie sehr ähnelt dieser Tag den Tagen, an denen es geregnet hat?

Die Ähnlichkeit ergibt die Wahrscheinlichkeit.

„30% Regenwahrscheinlichkeit“ bedeutet also: Von 100 Tagen mit diesen Wetterbedingungen hat es an 30 geregnet. An meinem Kaffeenachmittag war ich in diesen 30 gelandet.

Die App lag nicht falsch. Sie hat korrekt geschätzt – und ich hatte Pech.

Warum das einen Unterschied macht

Eine Prognose als Ja/Nein-Aussage zu lesen ist eine natürliche Reaktion – und verständlich. Zahlen suggerieren Präzision, und Präzision suggeriert Gewissheit.

In der Praxis passiert das schnell: Das Modell sagt „dieser Kunde hat eine hohe Abwanderungswahrscheinlichkeit“ und die erste Reaktion ist: „Stimmt das oder nicht?“ Die Frage ist nachvollziehbar. Aber sie geht am Wesen einer Prognose vorbei, denn die Antwort ist weder Ja noch Nein, sondern immer: mit welcher Wahrscheinlichkeit, und unter welchen Bedingungen.

Eine Prognose ist immer eine Wahrscheinlichkeit. Keine Gewissheit..

Dasselbe Prinzip, andere Anwendung

Kündigungsprävention ist ein klassisches Beispiel: Das Modell erkennt anhand von Mustern, Vertragsalter, Zahlungsverhalten, Beschwerdehistorie, Produktwechsel, ob ein Kunde den Merkmalen bekannter Kündiger ähnelt. Kein Urteil. Eine Wahrscheinlichkeit.

Ein weiteres Beispiel ist die Intent-Erkennung im Kundenservice: Ein Kunde schreibt oder ruft an, das Modell schätzt in Echtzeit ein, ob er kündigen, sich beschweren oder nur eine Frage stellen möchte. Genau wie beim Wetter: „Ähnelt diese Anfrage den Anfragen, die wir als Kündigungsabsicht kennen?" Das ermöglicht eine sofortige, passende Reaktion, noch bevor der Kunde sein Anliegen vollständig formuliert hat.

Bessere Fragen stellen

Ein Modell das 80% der Fälle korrekt einschätzt, ist für manche Entscheidungen ausgezeichnet, und für andere nicht. Das hängt nicht vom Modell ab, sondern von der Frage, die man ihm stellt, und davon, welche Konsequenzen ein Fehler hat.

Das Verständnis von Wahrscheinlichkeiten klingt nach Statistikvorlesung, ist aber die praktischste Grundlage für gute Entscheidungen auf Basis von KI.

Was mein verregneter Kaffeenachmittag mir klargemacht hat: Eine gute Prognose bedeutet nicht, dass das Ergebnis immer eintritt. Sie bedeutet, dass das Modell die verfügbaren Daten so gut wie möglich genutzt hat.

Wer das im Hinterkopf behält, stellt automatisch bessere Fragen, und trifft bessere Entscheidungen.

← Zurück zur Übersicht