Evidenzinformierte Festlegung von Rechnungslegungsstandards – Lehren aus der Corona-Pandemie

Viele neue Forschungsergebnisse zur Rechnungslegung werden jährlich in unzähligen wissenschaftlichen Zeitschriften, auf Preprint-Servers und als Working Paper auf SSRN veröffentlicht. Viele dieser Studien sind potenziell politisch relevant, d.h. sie befassen sich mit Problemen der Agenden der Standardsetzer*innen für die Rechnungslegung. Sogar Expert*innen in diesem Bereich finden es schwierig immer auf dem neuesten Stand zu bleiben. Und es gibt noch eine weitere Herausforderung: Nicht alle verfügbaren Forschungsergebnisse sind gleichermaßen für eine bestimmte Frage sachdienlich, da die Studien unterschiedlichen Validitätsbedrohungen ausgesetzt sind. In einer kürzlich gehaltenen Präsentation vor der European Financial Reporting Advisory Group’s Technical Expert Group (EFRAG TEG) reflektiert Thorsten Sellhorn über diese Validitätsherausforderungen für die empirische Goodwill-Rechnungslegungsforschung. Unter Verwendung von Analogien der derzeitigen Corona-Krise erörtert er, wie Forscher*innen und Standardsetzer*innen diesen Herausforderungen begegnen können, wenn sie auf eine evidenzinformierte Standardsetzung hinarbeiten. 

 

In dem EFRAG TEG-CFSS Online-Meeting am 25. März 2020 habe ich die Ergebnisse, die aus veröffentlichten empirischen Studien zu Goodwill-Rechnungslegung für eine evidenzinformierte Standardsetzung zu diesem Thema hervorgingen, zusammengefasst. Mein Ziel war es, die in diesen Studien dargelegte Evidenz aus zwei Perspektiven zu beurteilen: Erstens, können die Studien in die derzeitige Politikgestaltung, zum Beispiel beim International Accounting Standards Board (IASB) einfließen? Und zweitens, wie valide sind die empirischen Befunde? In diesem Beitrag werde ich den Fokus auf die in meinem Vortrag diskutierten Validitätsherausforderungen setzen und hinterfragen, wie wir als Fachgebiet trotz dieser Herausforderungen auf evidenzinformierte Standardsetzung hinarbeiten können. Für einige illustrative Beispiele beziehe ich mich auf die Rolle der Forschung in der derzeitigen Corona-Krise.

 

Evidenzinformiert vs. Evidenzbasierte Standardsetzung

Der Begriff evidenzbasiert wurde erstmals in den 1990er Jahren im Zusammenhang mit der  medizinischen Forschung geprägt und in Eddy (1990) definiert als „explizite Beschreibung der verfügbaren Evidenz, die sich auf eine Richtlinie bezieht, und die Bindung der Richtlinie an die Evidenz“. So sehr wir uns wünschen, dass Finanzberichterstattung und Offenlegungsvorschriften evidenzbasiert sind, sind einige Unterschiede in den Bereichen der Rechnungslegung (als Teil der Sozialwissenschaften) und Medizin vorhanden, die wir nicht ignorieren können. Außerhalb von Laborexperimenten fällt es uns schwer, dieselbe Art von „harter“ kausaler Evidenz zu liefern, die Medizinforscher*innen als Basis für Politikgestaltung anstreben.

Zum Beispiel kommen wir selten dazu, Personen oder Firmen nach dem Zufallsprinzip Behandlungs- und Kontrollgruppen zuzuordnen, geschweige denn den Kontrollgruppen ein Placebo zu verabreichen. Überzeugende kausale Behandlungseffekte sind daher schwer zu erzielen. Ebenso werden die Anreize der Manager*innen nicht willkürlich zugeteilt, sodass ihre Wirkung auf die buchhalterischen Entscheidungen von anderen Faktoren beeinflusst werden kann – was wiederum kausale Schlussfolgerungen sehr schwierig macht. Darüber hinaus sind Metaanalysen und systematische Übersichten in der Rechnungslegungsforschung aufgrund fehlender Replikations- und Reproduktionsstudien selten.

Zur Veranschaulichung dieser Sachverhalte für den Kontext der Goodwill-Rechnungslegung: Die Standardsetzer*innen würden gerne wissen, welche Rechnungslegungsbehandlung von Goodwill „besser“ ist – Amortisation oder der Impairment-only-Ansatz. Zusätzlich zu der Entscheidung, was „besser“ bedeutet und wie es zu messen ist, haben die Forscher*innen Mühe, diese Forschungsfrage in einem sauberen Vergleich „von Äpfel mit Äpfeln“ empirisch zu überprüfen.

Im Idealfall würde man gerne zufällig eine Gruppe von Firmen der Amortisation und eine andere, ansonsten identische Gruppe von Firmen, dem Impairment-only-Ansatz zuordnen. Noch besser wäre es, wenn sowohl die Firmen als auch die Forscher*innen in Unkenntnis darüber wären, welche Firma zu welcher Gruppe gehört; eine Doppelblindstudie. Anschließend würde man die Ergebnisse des Interesses beider Gruppen beobachten und miteinander vergleichen, um daraus abzuleiten, ob nur die Amortisation oder nur Impairment-only “besser“ ist. Klingt unpraktikabel? Richtig.

Evidenz-basierte Standardsetzung scheint ziemlich offensichtlich eine Brücke zu weit für unser Fachgebiet zu sein. Nichtsdestotrotz können (und sollten) wir evidenz-informierte Politikentscheidungen anstreben. Der ehemalige Forschungsdirektor des IASB, Alan Teixeira (2014), benutzte diesen Begriff im Zusammenhang mit der Rechnungslegung, um Entscheidungen zu beschreiben, die unter Berücksichtigung der bereits vorliegenden Studien und ihrer Ergebnisse getroffen werden, und um diese Forschung dann mit der Erfahrung und dem Fachwissen der Beteiligten zu kombinieren. Um eine evidenzinformierte Standardsetzung zu erreichen, müssen zwei Bedingungen erfüllt sein. Erstens ist es wichtig, dass die Ergebnisse valide sind. Zweitens sollten wir uns auf die Ergebnisse konzentrieren, die in einem ein Fachgebiet umfassenden Gesamtwerk erarbeitet wurden, anstatt uns auf eine einzelne Studie zu konzentrieren.

 

Validität

Was meine ich also mit „Gültigkeit“? Natürlich behaupte ich nicht, dass es der veröffentlichten Goodwill-Rechnungslegungsliteratur insgesamt generell an Validität mangelt. Mein Standpunkt ist vielmehr, dass es selten möglich ist, aus den Ergebnissen einer bestimmten Studie präzise und eindeutige Empfehlungen abzuleiten. Stattdessen beeinflussen eine Reihe von wichtigen Entscheidungen über das Forschungsdesign (die den Standardsetzer*innen bekannt sein sollten) die Arten von Schlussfolgerungen, die aus einer bestimmten Studie sicher gezogen werden können. Werden diese Feinheiten nicht beachtet, kann dies zu einem Kommunikationsversagen führen, das durch eine „Erwartungslücke“ zwischen akademischen Forscher*innen und Standardsetzer*innen verursacht wird. Lassen Sie mich zur Veranschaulichung ein aktuelles Beispiel aus der Coronavirus-Forschung heranziehen und dann versuchen, Parallelen zur Goodwill-Rechnungslegungsforschung zu ziehen.

 

Ein Beispiel aus der Coronavirus-Forschung

Eine aktuelle CNN-Schlagzeile lautete: „Chloroquin, ein altes Malariamedikament, könnte bei der Behandlung des neuartigen Coronavirus helfen, sagen Ärzte“. In einem seiner täglichen Podcast-Interviews im NDR weist Christian Drosten, Chef-Virologe der Berliner Charité, auf Mängel hin, die die kausale Wirkung von Chloroquin auf coronabedingte Gesundheitsrisiken bestenfalls zweifelhaft erscheinen lassen.

Er weist auf zwei wesentliche Punkte hin: Erstens sind die Behandlungs- und Kontrollgruppen in der Studie sehr unterschiedlich, so dass „Äpfel mit Birnen“ verglichen werden. Daher wird der Behandlungseffekt von Chloroquin auf die untersuchten Gesundheitsergebnisse wahrscheinlich durch andere Faktoren wie das Alter des Patienten und den Schweregrad der Infektion verfälscht. Zweitens ist das wichtigste untersuchte Gesundheitsergebnis – die Viruskonzentration im Rachenraum – für die aktuelle Debatte, die sich auf die Viruskonzentration in der Lunge, den Schweregrad des Krankheitsverlaufs und die Letalität konzentriert, kaum relevant.

 

Ein Beispiel aus der Goodwill-Forschung

Ähnliche Bedenken können im Prinzip auch für viele empirische Studien zur Rechnungslegung, einschließlich der Studien zu Goodwill, geäußert werden. Beispielsweise könnten die Standardsetzer*innen derzeit sehr an dieser (fiktiven) Überschrift interessiert sein: „Ein reiner Goodwill-Impairment-only-Ansatz ist für Investoren weniger nützlich als die Amortisation, wie die Studie zeigt“. Wenn die Forschung auf dem Gebiet der Rechnungslegung Schlagzeilen machen würde (was leider nicht der Fall ist), könnte ich mir vorstellen, dass ein*e Journalist*in dieses Papier, das in der angesehenen European Accounting Review veröffentlicht wurde, so zusammengefasst hätte.

Die beiden oben genannten Bedenken bezüglich der Coronavirus-Forschung können hier ebenfalls zur Sprache gebracht werden. Erstens vergleicht das Papier Daten aus dem Jahr vor (Amortisationsmethode in den meisten Ländern) und nach der IFRS-Übernahme in der EU (Impairment-Methode). Sie verwenden ein Prä-Post-Testdesign, das an sich keine kausale Schlussfolgerung zulässt. Die Forscher*innen sind sich dessen natürlich bewusst, aber ein besseres Versuchsdesign stand ihnen nicht zur Verfügung.

Zweitens, das zu untersuchende Ergebnis ist ‚usefulness for investors‘, oder „accounting quality“. Die Autor*innen, wie auch eine lange Tradition früherer Arbeiten, messen dies empirisch als „value relevance“, die statistische Assoziation von Goodwill-bezogenen Buchhaltungsbeträgen mit Aktienkursen. Ist „value relevance“ als Ergebnis für Standardsetzer*innen relevant? Das wissen wir nicht genau. In der Wissenschaft sind darüber bereits Kämpfe ausgetragen worden.

Wohlgemerkt: diese Validitätsherausforderungen entstehen nicht, weil die Forscher*innen nicht wissen, was sie tun! Sie ergeben sich vielmehr aus den vielschichtigen Herausforderungen, die mit der Erstellung einwandfreier Kausalstudien verbunden sind, die Phänomene messen, die für die Standardsetzer*innen von Interesse sind. Dazu gehören Fragen der Datenverfügbarkeit, ein Mangel an quasi-experimentellen Settings (in denen Behandlungs- und Kontrollgruppen nach dem Zufallsprinzip gebildet werden) und Unwissenheit (aus vielen Gründen) darüber, an welchen Ergebnissen die Standardsetzer*innen genau interessiert sind.

Und seien wir ehrlich: Es spiegelt auch die Tatsache wider, dass „angewandte“ Studien, die auf den Informationsbedarf der politischen Entscheidungsträger*innen ausgerichtet sind, geringere Chancen haben, in den Top-Journalen veröffentlicht zu werden, die den Ruf, den Status, die Ressourcen (einschließlich der DFG-Förderung) und die Gehälter der Forscher*innen bestimmen. All dies wird problematisch, wenn Forschungsergebnisse unpräzise kommuniziert, aus dem Zusammenhang gerissen oder auf Themen angewandt werden, zu denen sie nicht wirklich etwas sagen – wie dies derzeit bei einigen coronabezogenen Forschungen der Fall ist.

 

Kein Königsweg

Die zweite Bedingung, die erfüllt sein muss, betrifft die Fokussierung auf die Studien, die durch ein Feld generiert werden. Wir sollten nicht erwarten, dass eine einzige Studie den einen kausalen „Königsweg“ liefert. Es mag produktiver sein, kausale Aussagen von einem Feld ausgehen zu lassen, d.h. von einer Vielzahl unterschiedlicher Papiere, die unterschiedliche Methoden und Daten zum Tragen bringen – und so langsam und stetig Beweise zu sammeln, die am Ende einen plausiblen kausalen Effekt vermuten lassen. Vergessen wir nicht: die Forschung, die das Rauchen mit Lungenkrebs in Verbindung bringt, wurde über Jahrzehnte aufgebaut, ohne dass eine einzige Kausalstudie das Problem ein für alle Mal geklärt hätte.

Daher ist es wichtig, dass die Standardsetzer*innen ihre Entscheidungen auf die Informationen stützen, die von einem gesamten Bereich geliefert werden. Das bedeutet, dass sie mit der verfügbaren Literatur mithalten müssen, und wir Forscher*innen sollten uns über die Auswirkungen unserer Studien im Klaren sein und diese „Erwartungslücke“ überbrücken.

 

Von der Forschung zur Standardsetzung

Wie können wir also als Forscher*innen die Standardsetzer*innen dabei unterstützen, (noch) stärker evidenzinformiert zu werden?

Zunächst müssen wir verstehen, zu welchen Fragen die Standardsetzer*innen Evidenz benötigen und an welchen Ergebnismessungen sie interessiert sind. Für Sie als Standardsetzer*in: Sie könnten die Ergebnisse, die für Sie von Interesse sind, klar spezifizieren, also was möchten Sie gerne erforscht haben? Interessieren Sie sich mehr für die „value relevance“ oder eher für den Grad des Konservatismus bei den Rechnungslegungsbeträgen? Und wie wollen Sie diese Ergebnisse messen?

Zweitens sollten wir uns auf den Zeitpunkt der Beratungen der Standardsetzer*innen einstellen. Standardsetzer*innen sind nicht geneigt, jahrelang zu warten, bis eine relevante Studie in einer Top-Zeitschrift veröffentlicht wird. Auch hier zeigt die Corona-Krise: Forschungsprojekte, Publikationsprozesse und behördliche Genehmigungsverfahren können bei Bedarf beschleunigt werden! Auch die Standardsetzer*innen im Rechnungswesen wollen die Beweise, wenn sie sie brauchen.

Drittens müssen wir sorgfältig kommunizieren, d.h. vermeiden, kausale Effekte zu suggerieren, wenn wir nur statistische Assoziationen anzubieten haben. Natürlich ist ein theoretisch plausibler und hochsignifikanter statistischer Zusammenhang eher ein Hinweis auf einen tatsächlichen kausalen Effekt als irgendein Zufallsmuster, das bei einer großen Data-Mining-Analyse beobachtet wird. Aber dennoch sollten wir Korrelation und Kausalität nicht verwechseln, insbesondere wenn wir mit Standardsetzer*innen kommunizieren.

Das bringt mich zu meinem letzten Punkt: Unsere Forschungsansätze müssen noch breiter angelegt werden. Der Bereich der Goodwill-Rechnungslegung würde zum einen von den Erkenntnissen eher qualitativer Studien profitieren, einschließlich Umfragen und Fallstudien mit kleinen Stichproben. Diese könnten Aufschluss über die Motive, das tatsächliche Verhalten und die Interaktionen der beteiligten Personen geben und hoffentlich zu einem tieferen Verständnis der Entscheidungsfindung im Bereich der Goodwill-Rechnungslegung in der Praxis führen.

Um diese Ideen zusammenzuführen: Vielleicht sollten die Standardsetzer*innen die Möglichkeit, Forschung in Auftrag zu geben, stärker nutzen. Warum sich nicht mit einem Team von Fachleuten aus Wissenschaft und Praxis zusammensetzen, um eine Studie nach Ihren Vorgaben „maßgeschneidert“ zu erstellen? Sie können dann sicherstellen, dass Sie gezielt nach Validitätsbewertungen fragen, so dass Sie aus den Ergebnissen klare Schlussfolgerungen ziehen können. Sie können die Forscher*innen auch bitten, die „tatsächlichen Auswirkungen“ der buchhalterischen Behandlung in einer wirtschaftlichen Folgenabschätzung speziell zu berücksichtigen.

Und schließlich können Sie uns Forscher*innen bei unserer Datenerhebung helfen. Wenn möglich, stellen Sie relevante Kontakte und Felddaten zur Verfügung, z.B. indem Sie sich für (Forschungs-)Interviews zur Verfügung stellen und an unseren Umfragen teilnehmen und diese weiterleiten. Und durch die Teilnahme an unseren Veranstaltungen, die dem Wissensaustausch dienen.

 

Dieser Blog-Beitrag basiert grob auf einer Präsentation, die Sellhorn bei der European Financial Reporting Advisory Group gehalten hat (siehe hier).

Antworten

Ihre E-Mail-Adresse ist erforderlich, um einen Kommentar hinterlassen zu können. Diese Adresse wird selbstverständlich NICHT veröffentlicht, nur Ihr Name ist für andere sichtbar. Bitte beachten Sie, dass der Kommentarbereich moderiert wird – dies ist notwendig, um Spam und Netzmissbrauch zu verhindern.

Mehr zum Thema