4.9.2025 – Eine zunehmende Abhängigkeit der Menschen von Tools und Technologien ist zu beobachten. Um zu einem nützlichen Ergebnis zu kommen, muss man aber vorher auch wissen, was man damit will und wie man es richtig bedient. – Von Versicherungsmathematiker Christoph Krischanitz.
Neulich las ich auf einem sozialen Business Network von einer Unternehmensberaterin mit dem selbstdefinierten Mindset „AI first“, die sich darüber beklagte, das ChatGPT ihr falsche Auskunft über die Roaming-Gebühren in UK gegeben hat, was ihr Kosten verursacht hat.
„AI first“? Mein Lieblingswerkzeug im Garten ist die Heugabel (kein Scherz!), mit einem „Heugabel first“-Ansatz würde der Rasen aber ungeschnitten bleiben (was zuweilen sowieso der Fall ist, aber das ist eine andere Geschichte).
Ich beobachte eine zunehmende Abhängigkeit der Menschen von Tools und Technologien. Ein Problem entsteht? Nur nicht nachdenken – wir brauchen ein Tool (wurscht welches, Hauptsache schnell)!
Nachhaltigkeit? Kundenbeziehungen? Kommunikation? Datenanalyse? Ich kenn mich nicht aus, aber ich hab’ ja ein Tool! Die Liste könnte man verlängern.
Und natürlich sind Tools wichtig, aber sie sind nicht der Zweck, sondern das Mittel. Bevor ich ein Tool einsetze, muss ich wissen, was ich will. Und ich muss die fachliche Meisterschaft erworben haben, um mit dem Tool arbeiten zu können. Das gilt für Heugabeln, für Formel-1-Wagen und für KI genauso.
Ich muss wissen, wofür es gedacht ist, wie es funktioniert und wie man es handhabt. Menschen müssen dazu (wieder?) lernen, Fragen zu stellen, um das Problem, das es zu lösen gilt, einzugrenzen.
Als Mathematiker sehe ich die Wurzel des Übels schon in der Schule beginnen.
Jeder Maturant und selbstverständlich auch jede Maturantin – ich hoffe ich werde nach Buchstaben bezahlt ;-) – kennt die Formel von Pythagoras, kann die binomischen Formeln auswendig und natürlich auch die große und die kleine Lösungsformel. Also Formeln. Aber auch Regeln, wie Produktregel, Substitutionsregel oder Kettenregel. Und alle Welt weiß, dass man damit differenzieren und integrieren kann.
Das sind mathematische Tools. Aber was ist eigentlich ein Integral? Wurscht, brauch ma eh nie wieder.
Das zieht sich bis ins Studium und in die Unternehmen bis hinauf in die oberste Managerie. Und dann kommen Fragen wie:
Fragen, die uns ganz natürlich dünken, weil wir sie so gewohnt sind. Aber Fragen, die eigentlich nicht beantwortet werden können, weil wichtige Nebenbedingungen nicht formuliert werden.
Auch ist nicht klar, mit welcher Methode die Fragen einer Antwort zugeführt werden sollen. Dieser Prozessschritt wird übrigens „Modellierung“ genannt. Das ist eine zutiefst mathematische Aufgabe, die wir theoretisch in der Schule als Textbeispiel kennen gelernt haben (sollten).
Die wichtigste und erste Frage, die wir uns bei der Lösung stellen sollten, ist: Geht aus der Problemstellung klar hervor, in welcher Form die Antwort erwartet wird? Ist es eine Zahl, ein Intervall oder vielleicht eine Tabelle, Grafik oder Funktionsgleichung? Ist die Einheit klar, geht es um Euro-Beträge, Wahrscheinlichkeiten, Absolutzahlen oder Relationen?
Als Mathematiker unterscheidet man grundsätzlich zwischen sechs Typen von Fragestellungen:
Und dann kommt der kreative Teil. Wir kramen in unserem Gedächtnis, in unseren Büchern, in Google und ChatGPT, welche Methoden wir je nach Problemtyp zur Verfügung haben, welche ähnlichen Problemstellungen schon gelöst wurden, wie wir das Problem vielleicht in Teilprobleme zerlegen können, ob wir eventuell über Vereinfachungen zu einem brauchbaren Lösungsansatz kommen usw.
Idealerweise finden wir dann alternative Lösungsmöglichkeiten, aus denen wir dann das Beste wählen. Aber auch hier gilt nicht „AI first“, sondern hier gilt „so einfach wie möglich, so komplex wie nötig“. Jede Lösung, jedes Modell, das mehr Elemente enthält als für die unmittelbare Beantwortung des Problems notwendig ist, ist schlecht!
Warum? Weil es mehr Annahmen braucht, weil die Mechanik und das Verhalten des Modells schlechter einschätzbar wird und damit schlicht und einfach das Modellrisiko (also das Risiko „falsche“ oder verzerrte Antworten zu bekommen) steigt. Und zwar erheblich.
Damit wären wir wieder bei der künstlichen Intelligenz. Um also mit LLMs halbwegs brauchbare Ergebnisse zu bekommen, muss man dieses riesige Modell einschränken.
Das tut man, indem man in einem sehr ausführlichen Prompt den Bezugsrahmen der Antwortmöglichkeiten einschränkt, also den Kontext und die „Lautstärke“ sehr genau vorgibt. Dann kann das LLM fast nicht mehr anders, als zumindest sinnvoll zu antworten.
Und dieses Prompten ist nichts anderes, als präzise Fragen zu stellen. Nicht so, wie in den Beispielen vorhin. Denn sonst beginnen auch Controlling und HR zu halluzinieren.
Christoph Krischanitz
Der Autor ist Versicherungsmathematiker (profi-aktuar.at) und verfügt über langjährige Erfahrung in der aktuariellen Beratung. Krischanitz war von 2004 bis 2019 Vorsitzender des Mathematisch-Statistischen Komitees im Versicherungsverband (VVO), von 2008 bis 2014 Präsident der Aktuarvereinigung Österreichs (AVÖ). Derzeit ist er unter anderem Chairman der Arbeitsgruppe Non-Life Insurance in der Actuarial Association of Europe (AAE).
Marion Wais - Bitte weiter so! mehr ...
Ihre Leserbriefe können für andere Leser eine wesentliche Ergänzung zu unserer Berichterstattung sein. Bitte schreiben Sie Ihre Kommentare unter den Artikel in das dafür vorgesehene Eingabefeld.
Die Redaktion freut sich auch über Hintergrund- und Insiderinformationen, wenn sie nicht zur Veröffentlichung unter dem Namen des Informanten bestimmt ist. Wir sichern unseren Lesern absolute Vertraulichkeit zu! Schreiben Sie bitte an redaktion@versicherungsjournal.at.
Allgemeine Pressemitteilungen erbitten wir an meldungen@versicherungsjournal.at.
Der VersicherungsJournal Newsletter informiert Sie von montags - freitags über alle wichtigen Themen der Branche.
Ihre Vorteile