Was ist generative KI?
Der Begriff "Generative KI" bezeichnet eine Technologie, die selbständig Inhalte wie Texte, Bilder, Videos oder Musik erzeugen kann. Sie lernt aus großen Datenmengen und kann kreativ neues, zuvor nichtexistierendes Material erstellen, das auf bestehenden Mustern basiert. Eine Ausprägung von generativer KI sind Sprachmodelle (Large Language Models, kurz LLMs), die menschliche Sprache „verstehen“ und generieren. Sie analysieren große Textmengen, um Sprachmuster zu erkennen, und können daraufhin (zum Teil) sinnvolle und kontextbezogene Antworten formulieren, Texte übersetzen oder Inhalte verfassen bzw. zusammenfassen.
Daten als fundamentale Grundlagen
Sprachmodelle werden mit immensen Datenmengen trainiert und beziehen ihr Wissen aus diesem Fundament. Dieser Umstand macht auch die Limitierung von Sprachmodellen deutlich. Sie sind von den ihnen zur Verfügung gestellten Daten bzw. Quellen abhängig. Das populärste Beispiel ist das Sprachmodell GPT4 von OpenAI, welches einen Wissensstand bis April 2023 aufweist. Alles darüber hinaus ist dem Sprachmodell nicht bekannt. Gleichzeitig befindet sich in den Daten eine systematische Verzerrung. Diese Verzerrungen können zu verzerrten, unfairen, einseitigen oder irreführenden Ergebnissen führen (sogenannte BIAS).
Eine der größten Herausforderungen großer Sprachmodelle ist das sog. „Halluzinieren“. Dieses Phänomen beschreibt das Verhalten eines Sprachmodells, wenn es unzutreffende, irreführende oder vollständig erfundene Informationen generiert. Dabei klingen die erfundenen Informationen vollkommen plausibel und in sich logisch. Es existieren zwar Mittel und Wege die Wahrscheinlichkeit von Halluzinationen zu minimieren, jedoch bleibt ein Faktencheck die einzig zuverlässige Methode, um eine Halluzination auszuschließen. Ein Anwalt in New York nutzte zur Recherche ChatGPT, was ihm zum Verhängnis wurde, als das Sprachmodell Urteile und Aktenzeichen erfand. Selbst Texte angeblicher Urteile wurden ausgegeben und waren frei erfunden.
Kommunikation mittels Prompt
Der Nutzer interagiert mit einem Sprachmodell über einen Chat. Die textuelle Eingabe wird als „Prompt“ bezeichnet und dient als Befehl bzw. Aufforderung gegenüber dem Sprachmodell. Dabei hat die Qualität des Prompts maßgeblichen Einfluss auf die Qualität des Ergebnisses. Je mehr Kontext dem Sprachmodell mitgegeben wird, desto höher ist die Wahrscheinlichkeit, dass das Ergebnis den eigenen Vorstellungen entspricht.
Einem Prompt können folgende Parameter hinzugefügt werden (nicht abschließend):
- Welche Perspektive / Rolle soll eingenommen werden?
- Für welches Medium soll Text generiert werden (Blog, E-Mail, Social Media…)?
- Welchen Umfang soll das Ergebnis haben?
- Welche Tonalität / welcher Sprachstil soll verwendet werden?
- Welches Layout (Überschriften, Spiegelstriche, …) soll genutzt werden?
- In welcher Sprache soll der Text ausgegeben werden?
Der größte Unterschied mit Blick in die Zukunft ist die Art und Weise, wie nach Informationen gesucht wird. In der Vergangenheit bis in die aktuelle Gegenwart werden über Suchbegriffe die benötigten Informationen gesucht, die Trefferliste beurteilt und eigens priorisiert. In der Zukunft kann bei der Nutzung eines Sprachmodells lediglich ein Prompt formuliert werden, um direkt die zutreffende Lösung zu erhalten - eine enorme Zeitersparnis.
KI in der Steuerwelt
Die Arbeit im Steuerbereich ist geprägt vom Umgang mit Texten in Form von Gesetzen, Richtlinien, Kommentaren, Aufsätzen etc. Führt man sich vor Augen, dass die Kernkompetenz eines Sprachmodells das Verstehen und Erstellen von Texten ist, wird schnell deutlich, dass es im Steuerbereich eine Vielzahl passender Anwendungsfälle geben könnte.
Zudem ist in den letzten Jahren der Fachkräftemangel spürbarer geworden. KI kann eine mögliche Lösung zur Bekämpfung des Fachkräftemangels sein, indem KI-Systeme administrative und Routinetätigkeiten automatisieren und damit mehr Raum für wertstiftende und komplexe Tätigkeiten schaffen.
Bereits erste steuerliche KI-Lösungen sind erschienen. Diese versuchen, die Literaturrecherche und steuerliche Würdigung von Sachverhalten zu kombinieren und Mitarbeitende in den steuerberatenden Berufen erhebliche Zeiteinsparungen zu ermöglichen. Auch wenn diese Lösungen nicht immer zu 100 % vollständige und richtige Antworten liefern, können sie einen wichtigen Meilenstein in der digitalen Transformation der Steuerabteilungen und Steuerberater darstellen. Dabei ersetzen die Systeme keine Mitarbeitenden, sondern dienen als Sparringspartner, die Arbeitsgrundlagen und Entwürfe dem Fachpersonal als ersten Aufschlag oder zum Review zur Verfügung stellen. Hierbei sollte ein besonderes Augenmerk auf die Schulung der Mitarbeitenden vor der Nutzung eines Sprachmodells gelegt werden.
Knowledge-Hubs als digitaler Sparringspartner
Im Umgang mit Sprachmodellen wird schnell deutlich, dass steuerliche Fragestellungen von hierfür explizit vorgesehenen Lösungen erstaunlich gut beantwortet werden, sie jedoch nicht vollkommen fehlerfrei sind. Dabei ist gerade im Steuerrecht auf eine gesetzeskonforme Antwort zu achten, um Sanktionen zu vermeiden. Diesem Anspruch werden die aktuellen Ausgaben eines Sprachmodells nicht gerecht.
Die Genauigkeit soll durch die sogenannte Retrieval-Augmented Generation (kurz „RAG“) erhöht werden. Durch die Trennung von Sprachmodell (bspw. GPT4) und Wissensbasis (Content) wird die Ausgabe eines Sprachmodells optimiert, da es auf eine vorher definierte Wissensbasis zugreift und nicht auf die im Sprachmodell befindlichen „allgemeinen“ Trainingsdaten. Die RAG bietet einen weiteren Vorteil: Durch die Möglichkeit selbst aktiv in die Wissensbasis einzugreifen, kann das Ergebnis einer Abfrage maßgeblich beeinflusst werden.
Beim Aufbau einer eigenen Wissensbasis ist die Strukturierung und Qualität des Contents von entscheidender Bedeutung. So können einzelne „Knowledge-Hubs“ nach Steuerarten, steuerlichen Problembereichen (z. B. Betriebsaufspaltung, innergemeinschaftliche Lieferungen, …) oder Dimensionen (rechtlich, Unternehmenskontext, …) geordnet werden. Dabei gilt: Je repräsentativer die Datenmenge und spezialisierter sowie zielgerichteter der Inhalt ist, desto geringer die Möglichkeit einer Halluzination durch das Sprachmodell. Dadurch steigt die Wahrscheinlichkeit für ein zufriedenstellendes Ergebnis signifikant.
Gleichzeitig bedeutet das aber auch, dass die Qualität der Wissensbasis definiert, beurteilt und moderiert werden muss. Auch bei der Erstellung von Inhalten, die der Wissensbasis hinzugefügt werden, sollte auf die Formulierung und Ausarbeitung geachtet werden, damit das Sprachmodell zuverlässig durch den Inhalt „navigieren“ kann. Die Inhalte sollten dann, bevor sie der Wissensbasis hinzugefügt werden, von Mitarbeitenden in Bezug auf Qualität und Formulierung bewertet werden - mithilfe von KI.
Steuerabteilungen können damit ihr dezentrales Wissen aus den Köpfen der Mitarbeitenden zentralisiert bündeln und skalierbar zur Verfügung stellen. Dies schafft einen echten digitalen Mehrwert für die Steuer- sowie Finanzfunktion und im gesamten Unternehmen.
Risiken bei der Nutzung von Sprachmodellen
Neben der „Halluzination“ ist ein weiteres Risiko beim Einsatz von Sprachmodellen das Training von öffentlichen Sprachmodellen mit sensiblen persönlichen und unternehmerischen Daten. Eine Vielzahl an öffentlich zugänglichen Sprachmodellen nutzt die vom Benutzer getätigten Eingaben, um das eigene Sprachmodell zu trainieren. Aber auch in Anwendungen können KI-Funktionalitäten vorhanden sein, die auf ein mögliches Training untersucht werden sollten. Bereits in der Vergangenheit war es über geschickte Prompts möglich, den ursprünglichen Prompt eines Benutzers zu rekonstruieren und damit sensible Informationen zu erlangen.
Bei der Nutzung von KI-Tools sollten daher unbedingt das IT-Recht, der Datenschutz und u. U. das jeweils geltende Berufsrecht beachtet werden!
Generative KI bei RSM Ebner Stolz
RSM Ebner Stolz beschäftigt sich intensiv mit dem sinnvollen und sicheren Einsatz von Sprachmodellen. Dabei haben der Datenschutz und das Berufsrecht für unser Haus einen besonders hohen Stellenwert, denn der Schutz unserer Daten und der unserer Mandanten stehen für uns an oberster Stelle.
Wir verstehen generative KI als ein Werkzeug, dass sein volles Potenzial erst dann entfaltet, wenn es zielgerecht und präzise an den Bedürfnissen unserer Mitarbeitenden und Mandanten ausgerichtet ist. Wir möchten unseren Mitarbeitenden durch den Einsatz von generativer KI Freiräume verschaffen, indem repetitive und administrative Prozesse automatisiert werden. Hierzu haben wir interne „AI Empowering“ Gruppen gegründet, um die Bedürfnisse in der internen und externen Zusammenarbeit zu identifizieren.
Technisch konsolidiert sich das gesamte Vorhaben auf der „RSM AI Nexus Plattform“, die als zentrale KI-Plattform innerhalb von RSM Ebner Stolz fungiert und allen Mitarbeitenden zur Verfügung steht.
Wir sind davon überzeugt, dass wir mit der kontinuierlichen Weiterentwicklung unserer RSM AI Nexus Plattform die Vorteile, die KI bietet, sowohl für unsere Leistungserbringung als auch für unsere administrativen Prozesse sinnvoll und wertstiftend nutzen können. Dabei stehen weiterhin unsere hohen Qualitätsstandards und die praxisorientierte Beratung unserer Mandanten im Vordergrund. KI dient an dieser Stelle ausschließlich als Unterstützung für unsere Mitarbeitenden.