deen

Themen

Beyond the Hype: Der Einsatz von generativer KI im Steuerbereich

Die Her­aus­for­de­run­gen im Steu­er­be­reich sind vielfältig. Ne­ben zu­neh­mend kom­ple­xen re­gu­la­to­ri­schen An­for­de­run­gen, der ei­ge­nen di­gi­ta­len Trans­for­ma­tion und dem mitt­ler­weile vie­ler­orts spürba­ren Fachkräfte­man­gel, kom­men nun auch Künst­li­che In­tel­li­genz und Sprach­mo­delle in die Steu­er­welt, die mögli­cher­weise die in Tei­len mensch­li­che Ar­beit er­set­zen könn­ten. Eine ge­nauere Be­trach­tung zeigt je­doch, dass Sprach­mo­delle noch weit da­von ent­fernt sind, das kom­plexe Steu­er­recht vollständig zu be­herr­schen. Sie eig­nen sich je­doch ideal für die Über­nahme von ad­mi­nis­tra­ti­ven oder wie­der­keh­ren­den Tätig­kei­ten und können als Spar­rings­part­ner fun­gie­ren. Außer­dem können sie im Steu­er­be­reich einen di­gi­ta­len Mehr­wert durch „Know­ledge-Hubs“ ge­ne­rie­ren.

Was ist generative KI?

Der Be­griff "Ge­ne­ra­tive KI" be­zeich­net eine Tech­no­lo­gie, die selbständig In­halte wie Texte, Bil­der, Vi­deos oder Mu­sik er­zeu­gen kann. Sie lernt aus großen Da­ten­men­gen und kann krea­tiv neues, zu­vor nicht­exis­tie­ren­des Ma­te­rial er­stel­len, das auf be­ste­hen­den Mus­tern ba­siert. Eine Ausprägung von ge­ne­ra­ti­ver KI sind Sprach­mo­delle (Large Lan­guage Mo­dels, kurz LLMs), die mensch­li­che Sprache „ver­ste­hen“ und ge­ne­rie­ren. Sie ana­ly­sie­ren große Text­men­gen, um Sprachmus­ter zu er­ken­nen, und können dar­auf­hin (zum Teil) sinn­volle und kon­text­be­zo­gene Ant­wor­ten for­mu­lie­ren, Texte über­set­zen oder In­halte ver­fas­sen bzw. zu­sam­men­fas­sen.

© unsplash

Daten als fundamentale Grundlagen

Sprach­mo­delle wer­den mit im­men­sen Da­ten­men­gen trai­niert und be­zie­hen ihr Wis­sen aus die­sem Fun­da­ment. Die­ser Um­stand macht auch die Li­mi­tie­rung von Sprach­mo­del­len deut­lich. Sie sind von den ih­nen zur Verfügung ge­stell­ten Da­ten bzw. Quel­len abhängig. Das po­pulärste Bei­spiel ist das Sprach­mo­dell GPT4 von OpenAI, wel­ches einen Wis­sens­stand bis April 2023 auf­weist. Al­les darüber hin­aus ist dem Sprach­mo­dell nicht be­kannt. Gleich­zei­tig be­fin­det sich in den Da­ten eine sys­te­ma­ti­sche Ver­zer­rung. Diese Ver­zer­run­gen können zu ver­zerr­ten, un­fai­ren, ein­sei­ti­gen oder ir­reführen­den Er­geb­nis­sen führen (so­ge­nannte BIAS).

Eine der größten Her­aus­for­de­run­gen großer Sprach­mo­delle ist das sog. „Hal­lu­zi­nie­ren“. Die­ses Phäno­men be­schreibt das Ver­hal­ten ei­nes Sprach­mo­dells, wenn es un­zu­tref­fende, ir­reführende oder vollständig er­fun­dene In­for­ma­tio­nen ge­ne­riert. Da­bei klin­gen die er­fun­de­nen In­for­ma­tio­nen voll­kom­men plau­si­bel und in sich lo­gi­sch. Es exis­tie­ren zwar Mit­tel und Wege die Wahr­schein­lich­keit von Hal­lu­zi­na­tio­nen zu mi­ni­mie­ren, je­doch bleibt ein Fak­ten­check die ein­zig zu­verlässige Me­thode, um eine Hal­lu­zi­na­tion aus­zu­schließen. Ein An­walt in New York nutzte zur Re­cher­che ChatGPT, was ihm zum Verhäng­nis wurde, als das Sprach­mo­dell Ur­teile und Ak­ten­zei­chen er­fand. Selbst Texte an­geb­li­cher Ur­teile wur­den aus­ge­ge­ben und wa­ren frei er­fun­den.

Kommunikation mittels Prompt

Der Nut­zer in­ter­agiert mit einem Sprach­mo­dell über einen Chat. Die text­uelle Ein­gabe wird als „Prompt“ be­zeich­net und dient als Be­fehl bzw. Auf­for­de­rung ge­genüber dem Sprach­mo­dell. Da­bei hat die Qua­lität des Prompts maßgeb­li­chen Ein­fluss auf die Qua­lität des Er­geb­nis­ses. Je mehr Kon­text dem Sprach­mo­dell mit­ge­ge­ben wird, desto höher ist die Wahr­schein­lich­keit, dass das Er­geb­nis den ei­ge­nen Vor­stel­lun­gen ent­spricht.

Einem Prompt können fol­gende Pa­ra­me­ter hin­zu­gefügt wer­den (nicht ab­schließend):

  • Wel­che Per­spek­tive / Rolle soll ein­ge­nom­men wer­den?
  • Für wel­ches Me­dium soll Text ge­ne­riert wer­den (Blog, E-Mail, So­cial Me­dia…)?
  • Wel­chen Um­fang soll das Er­geb­nis ha­ben?
  • Wel­che To­na­lität / wel­cher Sprach­stil soll ver­wen­det wer­den?
  • Wel­ches Lay­out (Über­schrif­ten, Spie­gel­stri­che, …) soll ge­nutzt wer­den?
  • In wel­cher Sprache soll der Text aus­ge­ge­ben wer­den?

Der größte Un­ter­schied mit Blick in die Zu­kunft ist die Art und Weise, wie nach In­for­ma­tio­nen ge­sucht wird. In der Ver­gan­gen­heit bis in die ak­tu­elle Ge­gen­wart wer­den über Such­be­griffe die benötig­ten In­for­ma­tio­nen ge­sucht, die Tref­fer­liste be­ur­teilt und ei­gens prio­ri­siert. In der Zu­kunft kann bei der Nut­zung ei­nes Sprach­mo­dells le­dig­lich ein Prompt for­mu­liert wer­den, um di­rekt die zu­tref­fende Lösung zu er­hal­ten - eine enorme Zeit­er­spar­nis.

KI in der Steuerwelt

Die Ar­beit im Steu­er­be­reich ist geprägt vom Um­gang mit Tex­ten in Form von Ge­set­zen, Richt­li­nien, Kom­men­ta­ren, Aufsätzen etc. Führt man sich vor Au­gen, dass die Kern­kom­pe­tenz ei­nes Sprach­mo­dells das Ver­ste­hen und Er­stel­len von Tex­ten ist, wird schnell deut­lich, dass es im Steu­er­be­reich eine Viel­zahl pas­sen­der An­wen­dungsfälle ge­ben könnte.

Zu­dem ist in den letz­ten Jah­ren der Fachkräfte­man­gel spürba­rer ge­wor­den. KI kann eine mögli­che Lösung zur Bekämp­fung des Fachkräfte­man­gels sein, in­dem KI-Sys­teme ad­mi­nis­tra­tive und Rou­ti­netätig­kei­ten au­to­ma­ti­sie­ren und da­mit mehr Raum für wert­stif­tende und kom­plexe Tätig­kei­ten schaf­fen.

Be­reits er­ste steu­er­li­che KI-Lösun­gen sind er­schie­nen. Diese ver­su­chen, die Li­te­ra­tur­re­cher­che und steu­er­li­che Würdi­gung von Sach­ver­hal­ten zu kom­bi­nie­ren und Mit­ar­bei­tende in den steu­er­be­ra­ten­den Be­ru­fen er­heb­li­che Zeit­ein­spa­run­gen zu ermögli­chen. Auch wenn diese Lösun­gen nicht im­mer zu 100 % vollständige und rich­tige Ant­wor­ten lie­fern, können sie einen wich­ti­gen Mei­len­stein in der di­gi­ta­len Trans­for­ma­tion der Steu­er­ab­tei­lun­gen und Steu­er­be­ra­ter dar­stel­len. Da­bei er­set­zen die Sys­teme keine Mit­ar­bei­ten­den, son­dern die­nen als Spar­rings­part­ner, die Ar­beits­grund­la­gen und Entwürfe dem Fach­per­so­nal als ers­ten Auf­schlag oder zum Re­view zur Verfügung stel­len. Hier­bei sollte ein be­son­de­res Au­gen­merk auf die Schu­lung der Mit­ar­bei­ten­den vor der Nut­zung ei­nes Sprach­mo­dells ge­legt wer­den.

Knowledge-Hubs als digitaler Sparringspartner

Im Um­gang mit Sprach­mo­del­len wird schnell deut­lich, dass steu­er­li­che Fra­ge­stel­lun­gen von hierfür ex­pli­zit vor­ge­se­he­nen Lösun­gen er­staun­lich gut be­ant­wor­tet wer­den, sie je­doch nicht voll­kom­men feh­ler­frei sind. Da­bei ist ge­rade im Steu­er­recht auf eine ge­set­zes­kon­forme Ant­wort zu ach­ten, um Sank­tio­nen zu ver­mei­den. Die­sem An­spruch wer­den die ak­tu­el­len Aus­ga­ben ei­nes Sprach­mo­dells nicht ge­recht.

Die Ge­nau­ig­keit soll durch die so­ge­nannte Re­trie­val-Aug­men­ted Ge­ne­ra­tion (kurz „RAG“) erhöht wer­den. Durch die Tren­nung von Sprach­mo­dell (bspw. GPT4) und Wis­sens­ba­sis (Con­tent) wird die Aus­gabe ei­nes Sprach­mo­dells op­ti­miert, da es auf eine vor­her de­fi­nierte Wis­sens­ba­sis zu­greift und nicht auf die im Sprach­mo­dell be­find­li­chen „all­ge­mei­nen“ Trai­nings­da­ten. Die RAG bie­tet einen wei­te­ren Vor­teil: Durch die Möglich­keit selbst ak­tiv in die Wis­sens­ba­sis ein­zu­grei­fen, kann das Er­geb­nis ei­ner Ab­frage maßgeb­lich be­ein­flusst wer­den.

Beim Auf­bau ei­ner ei­ge­nen Wis­sens­ba­sis ist die Struk­tu­rie­rung und Qua­lität des Con­tents von ent­schei­den­der Be­deu­tung. So können ein­zelne „Know­ledge-Hubs“ nach Steu­er­ar­ten, steu­er­li­chen Pro­blem­be­rei­chen (z. B. Be­triebs­auf­spal­tung, in­ner­ge­mein­schaft­li­che Lie­fe­run­gen, …) oder Di­men­sio­nen (recht­lich, Un­ter­neh­mens­kon­text, …) ge­ord­net wer­den. Da­bei gilt: Je repräsen­ta­ti­ver die Da­ten­menge und spe­zia­li­sier­ter so­wie ziel­ge­rich­te­ter der In­halt ist, desto ge­rin­ger die Möglich­keit ei­ner Hal­lu­zi­na­tion durch das Sprach­mo­dell. Da­durch steigt die Wahr­schein­lich­keit für ein zu­frie­den­stel­len­des Er­geb­nis si­gni­fi­kant.

Gleich­zei­tig be­deu­tet das aber auch, dass die Qua­lität der Wis­sens­ba­sis de­fi­niert, be­ur­teilt und mo­de­riert wer­den muss. Auch bei der Er­stel­lung von In­hal­ten, die der Wis­sens­ba­sis hin­zu­gefügt wer­den, sollte auf die For­mu­lie­rung und Aus­ar­bei­tung ge­ach­tet wer­den, da­mit das Sprach­mo­dell zu­verlässig durch den In­halt „na­vi­gie­ren“ kann. Die In­halte soll­ten dann, be­vor sie der Wis­sens­ba­sis hin­zu­gefügt wer­den, von Mit­ar­bei­ten­den in Be­zug auf Qua­lität und For­mu­lie­rung be­wer­tet wer­den - mit­hilfe von KI.

Steu­er­ab­tei­lun­gen können da­mit ihr de­zen­tra­les Wis­sen aus den Köpfen der Mit­ar­bei­ten­den zen­tra­li­siert bündeln und ska­lier­bar zur Verfügung stel­len. Dies schafft einen ech­ten di­gi­ta­len Mehr­wert für die Steuer- so­wie Fi­nanz­funk­tion und im ge­sam­ten Un­ter­neh­men.

Risiken bei der Nutzung von Sprachmodellen

Ne­ben der „Hal­lu­zi­na­tion“ ist ein wei­te­res Ri­siko beim Ein­satz von Sprach­mo­del­len das Trai­ning von öff­ent­li­chen Sprach­mo­del­len mit sen­si­blen persönli­chen und un­ter­neh­me­ri­schen Da­ten. Eine Viel­zahl an öff­ent­lich zugäng­li­chen Sprach­mo­del­len nutzt die vom Be­nut­zer getätig­ten Ein­ga­ben, um das ei­gene Sprach­mo­dell zu trai­nie­ren. Aber auch in An­wen­dun­gen können KI-Funk­tio­na­litäten vor­han­den sein, die auf ein mögli­ches Trai­ning un­ter­sucht wer­den soll­ten. Be­reits in der Ver­gan­gen­heit war es über ge­schickte Prompts möglich, den ur­sprüng­li­chen Prompt ei­nes Be­nut­zers zu re­kon­stru­ie­ren und da­mit sen­si­ble In­for­ma­tio­nen zu er­lan­gen.

Bei der Nut­zung von KI-Tools soll­ten da­her un­be­dingt das IT-Recht, der Da­ten­schutz und u. U. das je­weils gel­tende Be­rufs­recht be­ach­tet wer­den!

Generative KI bei RSM Ebner Stolz

RSM Eb­ner Stolz be­schäftigt sich in­ten­siv mit dem sinn­vol­len und si­che­ren Ein­satz von Sprach­mo­del­len. Da­bei ha­ben der Da­ten­schutz und das Be­rufs­recht für un­ser Haus einen be­son­ders ho­hen Stel­len­wert, denn der Schutz un­se­rer Da­ten und der un­se­rer Man­dan­ten ste­hen für uns an obers­ter Stelle.

Wir ver­ste­hen ge­ne­ra­tive KI als ein Werk­zeug, dass sein vol­les Po­ten­zial erst dann ent­fal­tet, wenn es ziel­ge­recht und präzise an den Bedürf­nis­sen un­se­rer Mit­ar­bei­ten­den und Man­dan­ten aus­ge­rich­tet ist. Wir möch­ten un­se­ren Mit­ar­bei­ten­den durch den Ein­satz von ge­ne­ra­ti­ver KI Freiräume ver­schaf­fen, in­dem re­pe­ti­tive und ad­mi­nis­tra­tive Pro­zesse au­to­ma­ti­siert wer­den. Hierzu ha­ben wir in­terne „AI Em­powering“ Grup­pen gegründet, um die Bedürf­nisse in der in­ter­nen und ex­ter­nen Zu­sam­men­ar­beit zu iden­ti­fi­zie­ren.

Tech­ni­sch kon­so­li­diert sich das ge­samte Vor­ha­ben auf der „RSM AI Ne­xus Platt­form“, die als zen­trale KI-Platt­form in­ner­halb von RSM Eb­ner Stolz fun­giert und al­len Mit­ar­bei­ten­den zur Verfügung steht.

Wir sind da­von über­zeugt, dass wir mit der kon­ti­nu­ier­li­chen Wei­ter­ent­wick­lung un­se­rer RSM AI Ne­xus Platt­form die Vor­teile, die KI bie­tet, so­wohl für un­sere Leis­tungs­er­brin­gung als auch für un­sere ad­mi­nis­tra­ti­ven Pro­zesse sinn­voll und wert­stif­tend nut­zen können. Da­bei ste­hen wei­ter­hin un­sere ho­hen Qua­litäts­stan­dards und die pra­xis­ori­en­tierte Be­ra­tung un­se­rer Man­dan­ten im Vor­der­grund. KI dient an die­ser Stelle aus­schließlich als Un­terstützung für un­sere Mit­ar­bei­ten­den.

nach oben