Show simple item record

Interpretable Binary and Multiclass Prediction Models for Insolvencies and Credit Ratings

dc.contributor.advisorWaack, Stephan Prof. Dr.
dc.contributor.authorObermann, Lennart
dc.date.accessioned2016-06-10T09:16:49Z
dc.date.available2016-06-10T09:16:49Z
dc.date.issued2016-06-10
dc.identifier.urihttp://hdl.handle.net/11858/00-1735-0000-0028-8779-4
dc.identifier.urihttp://dx.doi.org/10.53846/goediss-5688
dc.identifier.urihttp://dx.doi.org/10.53846/goediss-5688
dc.identifier.urihttp://dx.doi.org/10.53846/goediss-5688
dc.description.abstractInsolvenzprognosen und Ratings sind wichtige Aufgaben der Finanzbranche und dienen der Kreditwürdigkeitsprüfung von Unternehmen. Eine Möglichkeit dieses Aufgabenfeld anzugehen, ist maschinelles Lernen. Dabei werden Vorhersagemodelle aufgrund von Beispieldaten aufgestellt. Methoden aus diesem Bereich sind aufgrund Ihrer Automatisierbarkeit vorteilhaft. Dies macht menschliche Expertise in den meisten Fällen überflüssig und bietet dadurch einen höheren Grad an Objektivität. Allerdings sind auch diese Ansätze nicht perfekt und können deshalb menschliche Expertise nicht gänzlich ersetzen. Sie bieten sich aber als Entscheidungshilfen an und können als solche von Experten genutzt werden, weshalb interpretierbare Modelle wünschenswert sind. Leider bieten nur wenige Lernalgorithmen interpretierbare Modelle. Darüber hinaus sind einige Aufgaben wie z.B. Rating häufig Mehrklassenprobleme. Mehrklassenklassifikationen werden häufig durch Meta-Algorithmen erreicht, welche mehrere binäre Algorithmen trainieren. Die meisten der üblicherweise verwendeten Meta-Algorithmen eliminieren jedoch eine gegebenenfalls vorhandene Interpretierbarkeit. In dieser Dissertation untersuchen wir die Vorhersagegenauigkeit von interpretierbaren Modellen im Vergleich zu nicht interpretierbaren Modellen für Insolvenzprognosen und Ratings. Wir verwenden disjunktive Normalformen und Entscheidungsbäume mit Schwellwerten von Finanzkennzahlen als interpretierbare Modelle. Als nicht interpretierbare Modelle werden Random Forests, künstliche Neuronale Netze und Support Vector Machines verwendet. Darüber hinaus haben wir einen eigenen Lernalgorithmus Thresholder entwickelt, welcher disjunktive Normalformen und interpretierbare Mehrklassenmodelle generiert. Für die Aufgabe der Insolvenzprognose zeigen wir, dass interpretierbare Modelle den nicht interpretierbaren Modellen nicht unterlegen sind. Dazu wird in einer ersten Fallstudie eine in der Praxis verwendete Datenbank mit Jahresabschlüssen von 5152 Unternehmen verwendet, um die Vorhersagegenauigkeit aller oben genannter Modelle zu messen. In einer zweiten Fallstudie zur Vorhersage von Ratings demonstrieren wir, dass interpretierbare Modelle den nicht interpretierbaren Modellen sogar überlegen sind. Die Vorhersagegenauigkeit aller Modelle wird anhand von drei in der Praxis verwendeten Datensätzen bestimmt, welche jeweils drei Ratingklassen aufweisen. In den Fallstudien vergleichen wir verschiedene interpretierbare Ansätze bezüglich deren Modellgrößen und der Form der Interpretierbarkeit. Wir präsentieren exemplarische Modelle, welche auf den entsprechenden Datensätzen basieren und bieten dafür Interpretationsansätze an. Unsere Ergebnisse zeigen, dass interpretierbare, schwellwertbasierte Modelle den Klassifikationsproblemen in der Finanzbranche angemessen sind. In diesem Bereich sind sie komplexeren Modellen, wie z.B. den Support Vector Machines, nicht unterlegen. Unser Algorithmus Thresholder erzeugt die kleinsten Modelle während seine Vorhersagegenauigkeit vergleichbar mit den anderen interpretierbaren Modellen bleibt. In unserer Fallstudie zu Rating liefern die interpretierbaren Modelle deutlich bessere Ergebnisse als bei der zur Insolvenzprognose (s. o.). Eine mögliche Erklärung dieser Ergebnisse bietet die Tatsache, dass Ratings im Gegensatz zu Insolvenzen menschengemacht sind. Das bedeutet, dass Ratings auf Entscheidungen von Menschen beruhen, welche in interpretierbaren Regeln, z.B. logischen Verknüpfungen von Schwellwerten, denken. Daher gehen wir davon aus, dass interpretierbare Modelle zu den Problemstellungen passen und diese interpretierbaren Regeln erkennen und abbilden.de
dc.language.isoengde
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subject.ddc510de
dc.titleInterpretable Binary and Multiclass Prediction Models for Insolvencies and Credit Ratingsde
dc.typedoctoralThesisde
dc.contributor.refereeWaack, Stephan Prof. Dr.
dc.date.examination2016-05-10
dc.description.abstractengInsolvency prediction and credit rating are challenging tasks used to evaluate the creditworthiness of commercial enterprises based on qualitative and quantitative attributes. One way to approach these tasks is machine learning whereby prediction models are built from sample data. The advantage of machine learning is the automatization of the process obviating the need for human knowledge in most cases and thus, its high level of objectivity. Nevertheless, this approach does not claim to be perfect which is why it does not completely replace human knowledge. Since these models can be used as decision support for experts, interpretable models are desirable. Unfortunately, interpretable models are provided by only a few machine learners. Furthermore, some tasks in finance like credit rating often are multiclass problems. Multiclass classification is often achieved via meta-algorithms using multiple binary learners. However, most state-of-the-art meta-algorithms destroy the interpretability of binary models. In this thesis, we study the performance of interpretable models compared to non-interpretable models in insolvency prediction and credit rating. We look at disjunctive normal forms and decision trees of thresholds of financial ratios as interpretable models. We use random forests, artificial neural networks, and support vector machines as non-interpretable models. Furthermore, we use our own developed machine learning algorithm Thresholder to build disjunctive normal forms and interpretable multiclass models. For the task of insolvency prediction, we demonstrate that interpretable models are not inferior to non-interpretable black-box models. In a first case study, a real-life database with financial statements of 5152 enterprises is used to evaluate the performance for all models. In a second case study focused on credit rating, we show that interpretable multiclass models are even superior to non-interpretable multiclass models. We evaluate their performances on three real-life data sets divided into three rating classes. In these case studies, we compare different interpretable approaches concerning their model size and type of interpretability. We provide example models built on these real-life databases and an interpretation for them. The results show that interpretable threshold-based models are appropriate for classification problems in finance. For these tasks they are not inferior to more sophisticated models like support vector machines. Our algorithm Thresholder builds the smallest models while its performance is comparable to the other interpretable models. In our case study on credit rating, interpretable models perform better than for our case study on insolvency prediction. A possible explanation can be found in the nature of credit rating. In contrast to insolvencies, credit ratings are man-made. This implies that credit ratings are based on decisions by people thinking in interpretable rules, e.g., logical operations on thresholds. Thus, we assume that interpretable models match the problems and detect and represent these interpretable rules.de
dc.contributor.coRefereeDamm, Carsten Prof. Dr.
dc.contributor.thirdRefereeSchumann, Matthias Prof. Dr.
dc.contributor.thirdRefereeMorgenstern, Burkhard Prof. Dr.
dc.contributor.thirdRefereeGrabowski, Jens Prof. Dr.
dc.contributor.thirdRefereeMay, Wolfgang Prof. Dr.
dc.subject.gerMaschinelles Lernende
dc.subject.gerInsolvenzvorhersagede
dc.subject.gerRatingde
dc.subject.gerMehrklassen-Klasifikationde
dc.subject.gerInterpretierbarkeitde
dc.subject.gerDisjunktive Normalformende
dc.subject.gerEntscheidungsbäumede
dc.subject.engMachine learningde
dc.subject.engInsolvency Predictionde
dc.subject.engCredit ratingde
dc.subject.engMulticlass classificationde
dc.subject.engInterpretabilityde
dc.subject.engDisjunctive normal formsde
dc.subject.engDecision treesde
dc.identifier.urnurn:nbn:de:gbv:7-11858/00-1735-0000-0028-8779-4-7
dc.affiliation.instituteFakultät für Mathematik und Informatikde
dc.subject.gokfullInformatik (PPN619939052)de
dc.identifier.ppn861060520


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record