„Fiskalisierung: Neue Kassen für Händler in Deutschland?“

Fiskalisierung: Neue Kassen für Händler in Deutschland?

POSTED ON 10. DEZEMBER 2019 BY DAVID KRUSE

Zum 01.01.2020 tritt in Deutschland die Fiskalisierung in Kraft.

Diese Maßnahme verfolgt das primäre Ziel, die Generierung von Schwarzgeld durch Dokumentation eines jeden entstandenen Geschäftsvorfalls einzudämmen. In einem Schreiben des Bundesministeriums für Finanzen vom 06.11.2019 wurde dem entgegenstehend bekanntgegeben, Händlern eine weitere Schonfrist bis zum 30.09.2020 einzuräumen. Diese beschreibt, dass Händler ohne eine technische Sicherheitseinrichtung bis zum Ablauf der Frist keine Strafen zu befürchten haben. Trotz dieser Übergangsfrist wirft die Fiskalisierung bei Händlern mehr Fragen als Antworten auf. Insbesondere wie die besagte Umstellung stattfinden soll, welche Regeln gelten und was bei Nichteinhaltung geschieht, ist nicht vollends geklärt. Aus diesem Grund thematisiert folgender Blogbeitrag zunächst die hartnäckigsten Mythen und beschäftigt sich im Nachgang tiefgehend mit dem Thema Fiskalisierung.

Die Registrierkassenpflicht kommt nach Deutschland!

Die Fiskalisierung und die damit einhergehende Kassensicherungsverordnung (KassenSichV) ist nicht gleichzusetzen mit einer Registrierkassenpflicht. Diese gibt es in Deutschland nicht und ist derzeit nicht geplant, da die Umsetzung aus Sicht des Gesetzgebers aus Kosten-Nutzen-Gesichtspunkten unverhältnismäßig und mit hohem Verwaltungsaufwand verbunden ist. Dies gilt insbesondere bei Wochenmärkten, Gemeinde-/ Vereinsfesten oder Hofläden und Straßenverkäufern sowie für Personen, die ihre Dienstleistungen nicht an festen Orten anbieten. Ausnahmen wären zudem nicht rechtssicher abgrenzbar. Somit können die Spektren von einer offenen Ladenkasse über die mechanische Registrierkasse bis hin zur EDV-Registrierkasse gehen.

Ich muss mir eine neue Kasse kaufen!

Realität: Ist die Kasse nach dem 25.11.2010 (§ 30 Abs. 3 zu Art. 97 EGAO) gekauft worden, GoBD konform und bauartbedingt nicht aufrüstbar, gilt eine Übergangszeit bis 01.01.2023. Sollte die Kasse aufrüstbar sein, hat eine entsprechende Aufrüstung durch den Kassensystemhersteller zu erfolgen.

Geprüftes Kassensystem: Registrierkassen müssen ab dem 01.01.2020 zertifiziert sein!

Nein, lediglich die technische Sicherheitseinrichtung / Software muss zertifiziert werden. Diese Einrichtung besteht aus einem Sicherheitsmodul, welches die Kasseneingaben mit Beginn eines Aufzeichnungsvorgangs zur Verhinderung von nachträglicher Manipulation protokolliert, einem Speichermedium, welches die Einzelaufzeichnungen für die Dauer der gesetzlichen Aufbewahrungspflicht speichert sowie einer einheitlichen, digitalen Schnittstelle, zur Gewährleistung der reibungslosen Datenübertragung für Prüfungszwecke. Wie bereits eingangs erwähnt, wird vorerst trotz des Inkrafttretens der KassenSichV keine Ahndung bei Verstoß der Umsetzung stattfinden.

Die KassenSichV tritt am 01.01.2020 in Kraft?

Ja, offiziell wird die KassenSichV am 1. Januar 2020 in Kraft treten. Aus dem Schreiben des Bundesministeriums für Finanzen vom 06.11.2019 geht jedoch hervor, dass Aufzeichnungssysteme im Sinne des §146 AO die keine technische Sicherheitseinrichtung besitzen, bis zum 30.09.2020 nicht beanstandet werden. Dies bedeutet ebenfalls, dass die im August 2019 veröffentlichte digitale Schnittstelle der Finanzverwaltung für Kassensysteme (DSFinV-K) keine Anwendung findet.

Was genau ist eine Fiskalisierung? Bin ich GDPdU und GoBD konform und was hat der Paragraph §146 AO (Abgabenordnung) damit zu tun? Muss ich mir eine neue Kasse/ Tablet kaufen oder ab Januar gar mein hippes Kassensystem im schlanken Design gegen einen der Klötze von anno dazumal eintauschen?

Computer und die damit zusammenhängenden Möglichkeiten gehören heutzutage zum Alltag. Dies gilt auch für die elektronische Verarbeitung von Daten. So wurden im Laufe des letzten Jahrhunderts Systeme zur Buchführung im Handel von ihrer ursprünglichen, papierhaften Variante auf elektronische Systeme zur Buchführung umgestellt. Unglücklicherweise wurden diese elektronischen Buchführungssysteme häufig missbraucht, um eine nachweisfreie Manipulation von Umsatzdaten und die damit zusammenhängende Hinterziehung von Steuern und Sozialabgaben zu ermöglichen. Um diese Hinterziehung einzugrenzen, fanden in den 1980er Jahren erste Datenträger zur Speicherung von Umsatzdaten Verwendung. Der daraus resultierende Vorgang, der die Speicherung von Umsatzdaten und damit die Staatskasse zum Ziel hatte, wurde als Fiskalisierung bekannt.

Knapp 40 Jahre nachdem die ersten Fiskalspeicher eingesetzt wurden, soll nun eine flächendeckende Verordnung, die sog. KassenSichV für die elektronische Registrierkassenlandschaft erarbeitet und durchgesetzt werden. Die Fiskalisierung von elektronischen Registrierkassen mit ihren Anforderungen dient ausschließlich der Bekämpfung von Händlern, welche Gelder steuerfrei verarbeiten und somit einen Wettbewerbsvorteil gegenüber denen erhalten, die ihre Umsätze ordnungsgemäß angeben. Diese Thematik hat besondere Relevanz, da aktuelle Kassensysteme Hintertüren besitzen, welche von Anwendern ausgenutzt werden können. Multiway, ein Kassensystemhersteller für Asia-Restaurants, der es anscheinend ermöglichte, gebuchte Artikel zu stornieren, um Steuern zu hinterziehen, sorgte mit dieser Funktion Anfang 2019 für Aufsehen. Der Wille zur Hinterziehung geht in einigen Fällen soweit, dass Kunden lediglich eine neue Registrierkasse erwerben, wenn diese die nachweisfreie Löschung von Umsätzen zulässt. Somit hat eine staatliche Regulierung – welche bei konsequenter Einhaltung der Regularien durch die Kassensystemhersteller nicht notwendig gewesen wäre – neben der Reduzierung von möglichen Schwarzgeldern – auch eine Aufhebung des finanziellen Vorteils von hinterziehenden Händlern zur Folge.

Um einen besseren Einblick in die bevorstehende Fiskalisierung der deutschen Registrierkassenlandschaft und ihre Anforderungen zu erhalten, müssen einige Begrifflichkeiten wie GoBD, Kassensicherungsverordnung oder §146 AO geklärt werden.

Die GDPdU oder „Grundsätze zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen“, die zum 01.01.2002 in Kraft getreten ist, hat als Verwaltungsvorschrift erstmalig den Steuerpflichtigen durch eine enthaltene Mitwirkungspflicht zur Verantwortung gezogen. Hierdurch mussten Unternehmer alle steuerrechtlichen Daten für 10 Jahre archivieren und den Steuerbehörden während einer Prüfung bei Bedarf zur Verfügung stellen. Am 01.01.2015 wurde die GDPdU von der GoBD abgelöst. Die GoBD oder „Grundsätze zur ordnungsmäßigen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff“, beinhaltet als Verwaltungsvorschrift, dass eine Unveränderbarkeit der Daten gegeben sein muss. Darüber hinaus gehört die Einzelaufzeichnungspflicht sowie die Möglichkeit des Datenexportes in einem vordefinierten Format zu den allgemeinen Grundsätzen der GoBD. Die einfache Speicherung der kumulierten Schichtumsätze in Form der sog. Z-Berichte, also den Tagesabschlussberichten an den Kassen, ist nicht ausreichend. Die Einhaltung der Richtlinie zum Schutz vor Manipulation muss hierbei durch die Kassenhersteller garantiert werden. Die tatsächliche Kontrolle liegt jedoch bei den zuständigen Finanzämtern. In diesem Kontext relevant, weder die GDPdU noch die GoBD haben die durchsetzbare Wirkung einer Verordnung, da lediglich die Grundsätze ordnungsmäßiger Buchführung (GoB) in der Abgabenordnung geregelt sind. Bedingt durch die Tatsache, dass seitens des Finanzministeriums keine eindeutige Aussage getroffen wurde, welche Kriterien eine elektronische Registrierkasse einhalten muss, um konform zu sein, bietet somit die GoBD nicht zwangsweise eine Rechtssicherheit.

Im Gegensatz zu GDPdU und GoBD ist die KassenSichV eine Verordnung des Finanzministeriums, die neue Standards zur Verhinderung von Manipulationen an Registrierkassen verbindlich vorschreibt. Die KassenSichV vom 26.9.2017 basiert auf dem Gesetz zum Schutz vor Manipulationen an digitalen Grundaufzeichnungen vom 16.12.2016. Ab dem 01.01.2020 müssen in Deutschland Registrierkassen, deren Bauart es technisch zulässt, mit einer sogenannten technischen Sicherheitseinrichtung (TSE) ausgestattet sein. Die Sicherheitseinrichtung speichert die Transaktionen der Kasse auf ihrem internen Speicher und liefert einen Code zurück an die Kasse. Dieser Code ist auf jeden Verkaufsbeleg zu drucken. Die Daten müssen in einem für das Finanzamt exportierbaren Protokoll gespeichert werden. Kassen, die zwischen nach dem 25.10.2010 und vor dem 31.12.2019 gekauft werden und nicht aufrüstbar sind, können bis zum 31.12.2022 erneuert werden.

Obschon nun die Begrifflichkeiten geklärt sind, bleibt die Frage der gesetzlichen Durchsetzung sowie der Konsequenzen für Händler bei Nichteinhaltung. Die Regelungen zur Nachschau der Transaktionsdaten sagen aus, dass ein Kassenprüfer unangekündigt während der üblichen Geschäftszeiten das Geschäft betreten und die Benutzung der Kasse (keine Ausweispflicht; Stichwort Testkauf) beobachten darf. Darüber hinaus dürfen die Prüfer bei der Geschäftsleitung (oder einem befähigten Vertreter) einen Kassensturz (Ausweispflicht) verlangen. Dies gilt neben Geschäftsräumen auch für Verkaufswagen, z.B. Food Trucks. Sollten die geprüften Aufzeichnungen nicht ausreichen, kann auf Anordnung eine Außenprüfung folgen. Wer nach dieser Masse an Informationen als Fazit zieht „Alles gut und schön, aber was passiert, wenn ich so weiter mache wie gehabt und im schlimmsten Falle ein Bußgeld zahle“, der sei an dieser Stelle gewarnt. Bei Einsatz nicht konformer Kassensysteme (inklusive Sicherungseinrichtung) kann der Händler mit einer Geldbuße von bis zu 25.000 Euro bestraft werden.

Das Ziel der KassenSichV ist die nachträgliche Manipulation von Umsatzdaten festzustellen und zu verhindern. Hierbei erfolgt die Prüfung über den Journalexport sowie Auswertungs-, Programmier- und Stammdatenänderungsdaten, welche durch eine Software der Finanzämter geprüft wird. Die dafür notwendige, technische Sicherheitseinrichtung besteht aus einem Sicherheitsmodul, einem Speichermedium und einer digitalen Schnittstelle, welche das Auslesen des Exports ermöglicht. Zukünftig werden Belege von konformen Systemen eine fortlaufende Signatur inklusive eindeutiger Informationen des vorherigen Belegs aufweisen. Diese Signatur wird verschlüsselt in einem Sicherheitsmodul gespeichert und kann somit nicht verändert werden. Reißt die Kette der Signaturen ab kann schnell herausgefunden werden, an welcher Stelle eine Manipulation stattgefunden hat. Besagtes Modul muss konsequent erreichbar sein, da nicht nur während der Signaturerstellung, sondern auch bei Eingabe der Artikel Kommunikation zwischen der Kasse und dem Sicherheitsmodul stattfindet. Bedingt durch diese ständige Erreichbarkeit ist eine deutliche Implikation, dass Cloud-basierte Kassen ab dem 01.01.2020 nicht mehr offline fähig sein dürfen, sofern hierdurch die Kommunikation zum Modul abbricht. Aus diesem Grund sollte der Kontakt zum Kassensystemhersteller gesucht werden, da dieser die Lösung bzw. Software für sein System zur Verfügung stellen muss.

Mit der kurzen Zusammenfassung der nicht ganz neuen Idee der deutschen Fiskalisierung und die Beantwortung der wichtigsten Fragen, bleibt die Frage nach dem Fazit. Es ist unbestritten, dass Deutschland ein Bargeld-affines Land ist. Ebenso wenig umstritten ist, dass nicht jeder Euro ordnungsgemäß beim Fiskus dokumentiert wird. Offen bleibt jedoch die Frage, ob die Umsetzung via neuer Kassensysteme wirklich die Lösung für das Problem der Steuerhinterziehung ist, oder nicht gar andere schafft. Welche Implikationen hat die Papierhafte Belegausgabe in einer immer stärker ökologisch denkenden Gesellschaft? Ist es zeitgemäß einen geschlossenen Standard in einer Open Source arbeitenden Gesellschaft zu etablieren? Wird das in Form von Bargeld hinterzogene Steuergeld durch die definierten Ausnahmen wirklich reduziert?

Die Beantwortung dieser Fragen steht aktuell noch aus. Sicher ist lediglich, dass das ab Januar 2020 inkrafttretende Gesetz wirkungslos bleiben wird, sollten Standards nicht unmissverständlich definiert und durch angemessenen Aufbau an prüfendem Personal kontrolliert werden.

„Die SCA-Einführung – eine 5-Minuten Terrine?“

PAY SCA Visions Vollbild

Die SCA-Einführung: eine 5-Minuten Terrine?

POSTED ON 01. OKTOBER 2019 BY RALF HESSE & DAVID KRUSE

Am 14.09.2019 hat das Martyrium der europäischen Zahlungsvielfalt im elektronischen Zahlungsverkehr begonnen

Was bisher geschah …

Als die Europäischen Kommissionäre sich seinerzeit Gedanken über eine Novellierung der PSD1 machten, die am 01. November 2009 in Kraft getreten ist, war damals neben dem Gedanken der Wettbewerbsgleichheit auf dem Zahlungsverkehrsmarkt auch der Wunsch nach höherer Sicherheit im elektronischen Zahlungsverkehr einer der treibenden Faktoren. Sehr noble und auch herausfordernde Ziele, die sicherlich dem Marktgeschehen im elektronischen Zahlungsverkehr geschuldet waren.

Die strake Kundenauthentifizierung (SCA: Strong Customer Authentication) als einer der treibenden Faktoren in der PSD2 sollte das Problem des unkontrollierten Missbrauchs im elektronischen Zahlungsverkehr eindämmen, indem man elektronische Zahlungsvorgänge (Payments) mittels voneinander unabhängiger Authentifizierungsverfahren doppelt absichern lässt. Bis hierin, ein wirklich lobenswerter Ansatz, der helfen sollte, das Fraud Problem in den Griff zu bekommen.

Für die Umsetzung war aber nun eine Definition eines Anforderungskataloges gefordert, der genau diese sog. Zwei-Faktor-Authentifizierung (2FA) in die Zahlungssysteme der EWR-Zahlungsdienstleister beschreiben musste. Ganz nach dem Motto „viele Köche verderben den Brei“, setzte man seinerzeit in Europa die Sterneköche der Europäischen Bankenaufsichtsbehörde (EBA) vor den Herd, die genau dieses Süppchen mit den Ingredienzien der Strong Customer Authentication (SCA) köcheln sollten. Die EBA stellte wiederum sehr bald fest, dass ihm die Zutaten zur Zubereitung gar nicht klar waren und befragte erst einmal seine Hilfsköche – die Zahlungsdienstleister (Payment Service Provider) – wie denn die Zusammensetzung der Suppe zu erfolgen habe. Als dann diese Befragung und das Sammeln von Informationen abgeschlossen war, hatten unser Sterneköche ihr Rezept in den „Regulatory Technical Standards“ (RTS) niedergeschrieben.

Und nun begann das große Köcheln…

Vom Wassertopf zur fertigen Suppe …

Am 27. November 2017 verabschiedete die BaFin die „Delegierte Verordnung (EU) 2018/389 der Kommission vom 27. November 2017 zur Ergänzung der Richtlinie (EU) 2015/2366“, die deutsche Umsetzung der RTS. Die RTS manifestierten also jetzt die technischen Grundregeln im deutschen Gesetzestext, die das SCA Süppchen zum Kochen bringen sollte – und das möglichst mit einem für alle angenehmen Geschmack. Gleichzeitig wurde der 14. September 2019 als Zieltermin genannt, zu welchem alle EWR-Zahlungsdienstleister ihre elektronischen Transaktionen nach „neuer Lesart“ zu authentifizieren haben.

Der kartengestützte Zahlungsverkehr stützt sich aber auf die Netzwerke der großen Kredit- und Debitkartenorganisationen (VISA, MasterCard, American Express, JCB, Diners, DK, etc.). Genau diesen Scheme-Betreibern wurde nun auferlegt, ein Regelwerk zu entwerfen, welches die Information zu den in den RTS geforderten Anpassungsmaßnahmen in die Prozesse der einzelnen Parteien integriert. Diese Umsetzung in den einzelnen Gesellschaften wurde zentral mit Einführung des neuen 3D Secure 2.0 (3DS2) Protokolls realisiert. Dummerweise gab es aber pro Gesellschaft ein ganzes Kochbuch von Regeln, die mit der Nutzung von 3DS2 zu beachten waren bzw. sind. Und wie bei Kochbüchern so üblich, sind diese niemals flächendeckend kongruent – allenfalls ähnlich – was natürlich zu einer deutlichen Erhöhung der Anforderungskriterien an die technische Umsetzung führte.

Nun begann das große Rätselraten. Der Zahlungsverkehrsmarkt ist ein sehr heterogenes System, in welchem sehr viele Dienstleister die unterschiedlichsten Aufgaben und Verantwortlichkeiten innehaben. Die EBA als Initiator der Novelle sprach und spricht aber nur mit den regulierten Zahlungsdienstleistern und schreibt diesen die neu verabschiedeten Verfahrensweisen vor. Weitere in der Dienstleistungskette involvierte Dienstleister (wie z.B. MPI/3DS2 Betreiber, GDS (Global Distribution Systeme) wie Amadeus oder Sabre, etc.) sind bzw. waren also von der SCA Forderung nicht direkt betroffen, tragen aber mitunter einen gravierenden Anteil im technisch/operativen Processing zur Ausführung einer Authentifizierung bei. Der reine Authentifizierungsprozess ist demnach ein regulierter Vorgang, der aber mitunter durch nicht regulierte Dienstleister implementiert werden sollte – ein Widerspruch in sich.

Viele Köche verderben den Brei …

Das Payment-Processing-Imperium besteht aus vielen Parteien. Da gibt es die

  • Merchants, deren schlechte Erfahrung aus 3DS1 die Skepsis bzgl. negativer Beeinflussung der Conversion Rate mit einem neuen Authentifizierungsprozess (Strong Customer Authentication) sich wiederholen oder sogar erhöhen könnte
  • Die PSPs, die ein Interesse an einer konstanten oder gesteigerten Transaktionsanzahl mit möglichst breiter Nutzung deren Zahlarten-Portfolio haben
  • Die Acquirer, die auch mit SCA keinen Umsatz im Kredit-/Debitkarten Geschäft einbüßen möchten
  • Die Schemes, die die Sicherung des Umsatzes bei dem neuen Authentifizierungsverfahren als oberste Priorität sehen, gleichzeitig aber den regulatorischen Vorgaben entsprechen müssen
  • Die Issuer, die die Umsetzung der Regulatorik im Bereich Payment gewährleistet wissen wollen. Das impliziert neben Reduktion der Fraud-Vorfälle aber auch die Sicherung des Bestandsvolumens auf deren Kartenportfolio.

Alle diese Parteien und Beteiligten sind in die Umsetzung der SCA Anforderungen involviert, verfolgen aber mitunter ganz unterschiedliche Ziele und Interessen.

Dadurch bedingt, werden bestimmte Anwendungsfälle bei der ein oder anderen Partei gar nicht oder nur peripher berücksichtigt. Mindestens genau so irritierend für das Ökosystem Zahlungsverkehr ist aber der Tatbestand, dass unterschiedliche Stakeholder vermeintlich gleiche Tatbestände unterschiedlich auslegen und implementieren – und das in Ermangelung klarer regulativer oder definierter Vorgaben der Schemes.

Ein sehr prominentes Beispiel hierfür ist der in den letzten Wochen in der Reise- bzw. Tourismus Branche sehr heiß diskutierte Umgang mit den sog. „key entry“-Transaktionen. Bei diesem Transaktionstyp werden Kartendaten manuell in das Bezahlterminal am Point-of-Sale oder eine Online-Eingabemaske eingegeben (z.T. ohne Anwesenheit des Karteninhabers). Da weder der Regulator diese Transaktionen als „elektronische Zahlungen“ beschreibt, noch die Kartenorganisationen selbst eine Alternative zur SCA Verpflichtung aufzeigen, schürt das die Kreativität der Händler (und somit der den Händler bedienenden Dienstleister, den PSPs sowie den Acquirern), was die Umgehung der SCA-Pflicht angeht.

Eine homogene und mit allen Parteien abgestimmte Vorgehensweise bzw. -Vorgabe zur Implementierung der SCA-Logik gibt es bislang leider nicht.

Die versalzene Suppe: nicht nur ein bitterer Beigeschmack

Seit dem 14.09.2019 ist die PSD2 und damit auch die starke Kundenauthentifizierung offiziell in Kraft getreten und viele offene Fragen haben nach wie vor keine Antwort. Ganz besonders davon betroffen sind die Geschäftsvorfälle in der zuvor zitierten Reise- und Tourismusindustrie.

Die Ignoranz der Regulatoren – sei das nun die EBA oder der jeweilige nationale Regulator (BaFin) – haben durch ihre Entscheidungsunwilligkeit in den vergangenen Wochen die Unsicherheit im Markt eher befeuert, als diese zu entkräften.

Das Resultat ist daher leider nicht ganz unerwartet. Große und namhafte Player im Payment-Ökosystem wie z.B. Amadeus oder Galileo haben bereits ihre Kunden informiert, dass deren Systeme zum 14. September 2019 nicht vollumfänglich die SCA-Anforderungen bedienen werden können. Nun ist das zwar nur eine einschränkende Aussage, aber sie lässt dennoch erkennen, dass der Zeitraum zur Implementierung der noch ausstehenden Fragestellungen nicht ausreichend war. Und genau das hat (zumindest die BaFin) bislang nicht berücksichtigen wollen, trotz der immer lauter werdenden Signale aus dem Markt und auch seitens der durch die BaFin regulierten Unternehmen.

Das zuvor erwähnte 3DS2 Protokoll bringt im Vergleich zu 3DS1 einen ganz entscheidenden Vorteil mit, welcher die begründete Hoffnung regt, dass ein Einbruch der Conversion Rate zumindest vermieden werden kann: die sog. „frictionless Authentifizierung“.

Bei diesem Vorgang übermittelt der Händler dem Issuer einen ganzen Bausatz zusätzlicher, Risiko-relevanter Informationen, die der Issuer selbst bewerten kann und dann ohne Interaktion mit dem Karteninhaber eine Genehmigung der Transaktion bzw. Zahlungen erteilen kann. Dieses Vorgehen nimmt einerseits die Haftung des Schadensfalls vom Händler und überträgt diese auf den Issuer, und erfordert anderseits keine weitere Interaktion mit dem Karteninhaber, die ggf. zu einem Transaktionsabbruch führen könnte.

Da aber – Stand heute – weder die Issuer genau wissen, welche Parameter für die Bewertung in ihren Fraud-Prevention-Systemen wirklich einen positiven Effekt in Hinsicht auf eine reibungslose Transaktionsverarbeitung beeinflussen werden, noch die Händler flächendeckend in der Lage sind, die für die Issuer notwendigen optionalen Felder in der Authentifizierungsnachricht zu übermitteln, läuft der Markt Gefahr, genau dieses so mächtige Instrument gar nicht zu nutzen. Dabei sollten die PSD2-Richtlinien genau dies vermeiden.

Und genau an dieser Stelle bedürfte es wieder einmal einer regulativen Vorgabe durch die entsprechenden Schemes, die die Issuer in einen einheitlich definierten Zustand versetzen würde.

Abschmecken der Suppe und die Nachbesserung

Letztlich hat aber die BaFin nun am 21. August doch eingelenkt – zumindest für den E-Commerce- Bereich – und mit ihrer Erklärung einen (bislang noch) unbefristete Duldung nicht SCA-authentifizierter E-Commerce-Transaktionen bekundet. Damit wurde aber keineswegs die SCA-Pflicht zum 14 September 2019 aufgehoben. Ganz gemäß unserem Sternekoch, wird die BaFin ihre SCA-Suppe niemals aufgeben, sondern vielmehr versuchen, diese durch geschicktes Abschmecken auch für den Konsumenten „erträglich“ zu gestalten.

Die BaFin darf aber beim „Abschmecken“ nicht vergessen, dass sie nur einer der Hilfsköche der SCA-Suppe ist. Ein inhomogener Umgang im EWR mit der zuvor beschriebenen Duldungsregelung erzeugt eher ein noch größeres Unsicherheitsbefinden als sowieso schon vorhanden. National voneinander abweichende Regelungen würden den Händler und auch den Karteninhaber maximal verwirren. Um genau diese Situation zu vermeiden, wäre eine deutlich klarer formulierte Vorgabe der EBA sehr viel hilfreicher.

In wie weit das aber genau gelingt bzw. umgesetzt wird, bleibt abzuwarten.

Resümee des Kochkurses

Die Unsicherheit am Markt im Umgang mit der SCA-Nutzung hat aufgrund der akuten Dringlichkeit vor der Umsetzung zum 14.09.2019 – wie schon erwähnt – die Kreativität der Händler deutlich angeregt. Das geht teilweise so weit, dass in Ermangelung passender SCA-Alternativen die sog. „alternativen Zahlarten“ (wie z.B. PayPal, Paydirekt, Wallet-Systeme etc.) den Vorzug vor der SCA-pflichtigen Kartentransaktion erhalten. Die Betreiber dieser alternativen Bezahlmethoden beobachten diesen für sie äußerst günstigen Effekt mit einem breiten Schmunzeln, profitieren Sie doch ohne extensive Marketingausgaben von der Unkoordiniertheit und den Schwächen der Regulatorik ohne eigene Anstrengung von den Konkurrenten. Und das war – und kann auch nicht – im Sinne des Regulators gewesen sein, als die SCA-Pflicht ausgestaltet wurde (wir erinnern uns an das Ziel der Steigerung des Wettbewerbs).

Selbst wenn nun am 14. September 2019 die SCA Verpflichtung – wenn auch in abgeschwächter bzw. verzögerter Form – in Kraft getreten ist, sollte man die Duldungsperiode bezüglich der PSD2-Richtlinien sinnvoll nutzen. Vor allen Dingen sollte man aus den Fehlern seit Veröffentlichung der RTS lernen. Und dieser Lerneffekt muss bei allen beteiligten Parteien ansetzen, damit nach Ablauf der Duldungsperiode nicht wieder ein D-Day ansteht und niemand weiß, wie und wann er sich darauf vorzubereiten hat. Die Alarmzeichen für eine derartige Situation stehen bereits jetzt auf Rot, da schon jetzt Händler angekündigt haben, dass sie die SCA-Pflicht erst mit Ablauf der Duldungsperiode scharf schalten werden, um nicht selbst vorschnell einen Wettbewerbsnachteil zur Konkurrenz zu erleiden.

Zurückkommend auf das initiale Anliegen der SCA-Verpflichtung – nämlich der Reduzierung des Fraud-Aufkommens und somit zur Sicherung der Karteninhaber-Integrität – kann man an dieser Stelle nur festhalten, dass die EBA mit ihren Hilfsköchen, den nationalen Regulatoren, mangels klar definierter Vorgaben das „Unternehmen SCA“ aufs Glatteis geführt hat. Bleibt zu hoffen, dass die Regulatoren aus den vergangenen Monaten gelernt haben.

Nur ein gemeinschaftlicher Ansatz unter Einbeziehung aller Beteiligten des Payment-Ökosystems kann den gewünschten Erfolg hinsichtlich einer regelkonformen SCA-Nutzung garantieren. Es wäre schade, wenn die sich mit der SCA öffnenden Möglichkeiten einer deutlichen Sicherheit und auch eines Kunden und Karteninhaber-freundlicheren Authentifizierungsverfahrens aufgrund von Ausnahmen und der Ignoranz bzw. Entscheidungs-Faulheit der zuständigen Instanzen nicht genutzt werden könnten.

„Status Quo im B2B-Zahlungsverkehr: vom Wunsch zur Wirklichkeit“

B2B Zahlungsverkehr Visions Vollbild

Status Quo im B2B-Zahlungsverkehr: vom Wunsch zur Wirklichkeit

POSTED ON 18. JUNI 2019 BY NIKLAS SIMON

Während die Bürger in Deutschland neue und innovative Bezahlformen jenseits von Bargeld, mobile-only Banken und weitere, u.a. durch Fintechs getriebene Entwicklungen rund um Prozesse der Zahlung im Privatgebrauch bewusst oder unbewusst verwenden, stockt die Nutzung innovativer Verfahren in anderen Bereichen der Banken. Die Rede ist von dem komplexen Themengebiet des Corporate Bankings, hier im Speziellen mit Blick auf den Zahlungsverkehr.

Doch warum ist das so?

Wir fangen mit einem Beispiel an: „Helfen Sie bitte dem Prokuristen der Firma XY beim Ausfüllen des Überweisungsträgers und reichen danach noch die Diskette für den Gehaltslauf ins Back-Office ein?“ Kommt Ihnen das auch bekannt vor? So oder so ähnlich könnte sich nämlich die Anfrage des Kassierers in der Ausbildung einer Bankkauffrau oder eines Bankkaufmanns angehört haben.

Die Ausbildung wurde vor Jahren beendet und (zum Glück) hat sich im Zahlungsverkehr abseits von Bargeldzahlung und Konto einiges getan. Oder ist der Unterschied zu damals gar nicht so groß? Zum Vergleich: Vor gut 10 Jahren präsentierte Steve Jobs das erste iPhone. Wenn man bedenkt, welche Entwicklungsstufen das iPhone als Smartphone seitdem durchlaufen hat, dann ist die Weiterentwicklung des Zahlungsverkehrs bei Corporate Banking Kunden in der letzten Dekade sehr zurückhaltend verlaufen.

Anforderungen an den Zahlungsverkehr unterscheiden sich wesentlich bei den Nutzern (Privatkunde oder Firmenkunde). Die Vordenker, Digital Natives und Technik-Nerds legen in ihrem privaten Umfeld Wert auf eine ansprechende User Experience und innovative Features. Sie wollen weit über das Onlinekonto allein inzwischen sämtliche Facetten des Bankgeschäfts digital genießen. Unternehmen achten jedoch viel stärker auf Fragestellungen wie Sicherheit, Datenschutz, Stabilität der Systeme und dem (leider) allseits bekannten „never change a running system (in gut schwäbisch „des isch halt so…“). Trotz verstärkter privater Neugierde nach innovativen, digitalen Produkten rund um Finanzen und Geld bleibt der Fortschritt bei Firmenkunden nahezu aus.

Doch was oder wer kann Innovationstreiber sein und wohin entwickelt sich der Zahlungsverkehr eines Firmenkunden?

Ein Unternehmen hat zwei wesentliche Anforderungen an seinen Zahlungsverkehr

1.) Erhalt von Informationen in Form eines (elektronischen) Kontoauszuges und

2.) das Ausführen des Zahlungsverkehrs (z.B. Überweisung)

Gesteuert wird dies meist über ein Electronic Banking-System. Kommunikation ist in weiten Teilen über den EBICS Standard definiert. Vor allem die SEPA Einführung war und ist für viele Firmenkunden ein (erster) großer Schritt in Richtung Professionalisierung des Zahlungsverkehrs (ZV) gewesen. Das bewusste Auseinandersetzen mit dem bestehenden Weg des ZV-Managements zeigte den Status Quo auf und verdeutlichte die Stärken aber vor allem auch die Schwachstellen. SEPA gab dem Cash Manager/Treasurer ein Werkzeug an die Hand, welches bei richtigem Einsatz die Effizienz steigerte und weiterhin steigern kann. Durch die Einführung von SEPA wurden z.B. Formate definiert, die im SEPA Raum identisch sind und somit über die Landesgrenzen hinweg Zahlungsverkehr einfach gestaltet.

Nun kommen jedoch einige Einschränkungen hinzu. Sehr häufig nutzen v.a. mittelständische Unternehmen Systeme für den Zahlungsverkehr und die Kontoverwaltung, die zwar die Mindestanforderungen an ein Electronic Banking-System erfüllen, eine Modernisierung, Automatisierung und Professionalisierung des Zahlungsverkehrs innerhalb der Unternehmen jedoch ausbremsen. Woran liegt das? Gewohnheit, Angst vor Veränderungen, persönliche Vorlieben, kein Vertrauen in nachkommende Generationen und Technologien?

Schnell sind wir beim Henne-Ei Problem. Sollten Banken den Weg vorgeben und ihre eigene Digitale Agenda den Unternehmen aufdrücken und z.B. moderne Electronic Banking-Systeme mit tollen Features am besten über die Block Chain (etwas überspitzt) und schnittstellenoptimiert anbieten? Oder muss dieser Impuls auch von den Unternehmen ausgehen? Müssen die Banken ihre Kunden hier noch viel stärker in die Pflicht nehmen oder muss hierfür erst ein gegenseitiges Verständnis hergestellt werden? Ist ein solches, ja fast schon kooperatives, Verhalten überhaupt möglich oder ist das Kunde-Dienstleister Verhältnis hierfür zu stark ausgeprägt?

Was wollen die Unternehmen in Sachen Zahlungsverkehr?

Laut einer Studie der Commerzbank gemeinsam mit der FH Mittelstand möchten Unternehmen heute jederzeit ihre Liquidität und Zahlungsströme ganzheitlich steuern. Früher wurde verwaltet, heute effizient, aktiv und professionell gesteuert – auch durch den Einsatz von Software. Gründe hierfür sind Transparenz, verringerte Transaktionskosten, konzerninternes Liquiditätsmanagement und Automatisierung. Ein Cash Management System/Electronic Banking-System nutzen mittlerweile ca. 50 Prozent aller Unternehmen (sowohl im Large Corporates Bereich als auch bei KMUs).

Trotz des Einsatzes eines Electronic Banking-Systems nutzen lediglich 10 Prozent der Unternehmen auch den Zugriff über eine App auf Mobilfunkgerät oder Tablet. Anders als im Privatgebrauch, wo mittlerweile eine Vielzahl an Drittanbietern auf unsere Finanzdaten zugreift, wollen Unternehmen nicht, dass ihre Daten von Drittanbietern genutzt werden (ausgeschlossen hiervon sind Steuerberater/Wirtschaftsprüfer). Dies gaben 75 Prozent der Befragten an. Eine ähnlich hohe Zahl an Nutzern von Cash Management Systemen erwartet u.a. aus den genannten Gründen von Datenschutz und Sicherheit keine Vernetzung des Cash Management mit anderen innerbetrieblichen Systemen. Verwunderlich, wenn man sich die bereits beschriebene Innovationsneugierde im privaten Umfeld und Digitalisierungsaktivitäten in anderen Bereichen eines Unternehmens anschaut.

Dennoch bemühen sich viele Mitarbeiter in Finanzabteilungen und haben den Anspruch, die lange gewachsenen Strukturen Stück-für-Stück in die moderne und digitale Welt zu transformieren. Keine Quantensprünge, sondern den Gegebenheiten angepasst. An dieser Stelle kommen dann die Banken ins Spiel.

Was wollen die Banken rund um die Zahlungsverkehr der Zukunft?

Aus der Attraktivität und dem Ertragspotenzial der Firmenkunden sollten sich die hiesigen Banken Ableitungen überlegen. Das Vertrauen ist weiterhin groß, die Wechselhürden nach dem Einrichten eines funktionierenden Electronic Banking-Systems samt Zahlungsverkehr hoch. Genügend Gründe auch in Zukunft als Dreh- und Angelpunkt der Finanzen eines Firmenkunden zu fungieren. Zeit zum Ausruhen bietet sich jedoch nur bedingt. Die Banken befinden sich in einem kompetitiven Verdrängungsmarkt und werden durch große ausländische Bankinstitute und vor allem Technologiekonzernen attackiert.

Banken bieten ihren Kunden häufig Kooperationen mit Partnern oder errichten Plattformen, die den Kunden vermeintliche Mehrwerte liefen, ohne auf die konkreten Wünsche der Kunden einzugehen. Die vielen guten Ideen von Fintechs und Ansätze aus dem eigenen Haus werden als unfertiges Stückwerk ohne (gefühlt) klare Strategie dem Kunden zur Verfügung gestellt. Ob der konkrete Bedarf vorhanden ist, wird häufig erst im nächsten Schritt hinterfragt. Die Entwicklungen innerhalb der Banken werden somit unabhängig vom Kunden und in vielen Fällen am Kunden vorbei entwickelt.

Banken wollen durch Beratungsstärke und Fachwissen dem Kunden ihre Dienstleistungen schmackhaft machen. Die Transaction Banking Abteilungen beraten ihre Kunden mit Experten zu allen Themen und Informationen rund um das Transaktionsgeschäft. Gerade komplexere Themen, wie der Verkauf und die Zahlung einer Maschine oder die Erbringung einer Dienstleistung im Ausland sind komplex, grenz– und währungsübergreifend und benötigen die Expertise oder das Korrespondenzbankennetz der Bank. Hier haben die Banken aktuell noch ein sehr großes Asset, dass es zu verteidigen gilt. Viele neue Player am Markt, man denke zum Beispiel an Transferwise beim Auslandszahlungsverkehr, bilden Dinge ab, die ursprünglich eine traditionelle Bankendomäne sind (siehe hierzu auch den Blogartikel von Michel Hilker „Quo vadis AZV“).

Banken wollen darüber hinaus nicht nur ihre Firmenkunden glücklich machen, sondern auch ihre eigenen Prozesse weiter vorantreiben. Denn um einen Kunden ein innovatives Produkt anzubieten muss man selbst auch eine innovative Bank sein, die diese Produkte auch bereitstellen und ausführen kann. Häufig ein Bruch im Gedankenspiel zwischen dem Wunschgedanken „moderne Bank“ und Realität.

Gemeinsamer Nenner!?

Wir sehen, dass eine Professionalisierung und ein gewisses Umdenken in den Finanzabteilungen von Unternehmen begonnen hat. Der Wunsch nach Veränderungen ist da, gleicht aber aus Sicht der jeweiligen Abteilungen häufig einer Operation am offenen (ZV-) Herzen. Eine Anpassung ist nur Schritt für Schritt möglich. Die Bank muss systemseitige Voraussetzungen schaffen, um neue Systeme, Prozesse und Anforderungen umsetzen zu können und nicht auf ihrer „Legacy“ sitzen bleiben. Das oft genannte „vom Kunden her denken“ muss auch im Corporate Banking weiter stark im Fokus stehen. Ein Alleingang der Banken sollte vermieden werden.

Die Unternehmen müssen den Wandel ihrer Systeme einleiten und eng begleiten, eine starke Selbstverpflichtung der ausführenden Mitarbeiter und des Managements muss vorliegen. Das aktive Auseinandersetzen mit dem Thema Zahlungsverkehr muss ein wesentlicher Bestandteil des Stellenprofils sein.

Ein Großteil der mittelständischen Unternehmen sollte der nachkommenden technischen wie personellen Generationen in den Finanzabteilungen die Chance geben, neue Ansätze zu implementieren und diesen Ansätzen sowie den Ausführenden zu vertrauen. Sonst bleibt der Wunsch nach Fortschritt nur ein Wunschgedanke – und dies nicht nur den Zahlungsverkehr betreffend.

„Der OSTHAVEN-Blick auf die Gegenwart & Zukunft von Künstlicher Intelligenz im Banking & Payment“

Der OSTHAVEN-Blick auf die Gegenwart & Zukunft von Künstlicher Intelligenz im Banking & Payment 3

Der OSTHAVEN-Blick auf die Gegenwart & Zukunft von Künstlicher Intelligenz im Banking & Payment

POSTED ON 16. APRIL 2019 BY TIM DANKER

Schaffen wir uns wirklich selbst ab?

Das Thema künstliche Intelligenz ist dieser Tage in aller Munde. Die Bundesregierung plant mehrere Milliarden auszugeben, um den Standort Deutschland fit zu machen und um im ausufernden Wettstreit um die Forschung rund um Themen der künstlichen Intelligenz mithalten zu können. Die Unternehmen aus dem Silicon Valley konkurrieren mit Ablösesummen für begehrte Forscher. Man könnte meinen, die künstliche Intelligenz sei dabei die Weltherrschaft an sich zu reißen. Die Mythen und Geschichten zeichnen diverse Horrorszenarien nach und überbieten sich gegenseitig in der Dramatik. Prominente wie Elon Musk und der kürzlich verstorbene Stephen Hawking warn(t)en vor nichts weniger als dem Untergang der Menschheit.

Höchste Zeit sich mit dem Thema auch einmal auf unserem OSTHAVEN Blog auseinander zu setzen – sachlich, differenziert und konkret bezogen auf unsere Branche – Banking & Payment.

Künstlich? Intelligenz?

Lassen Sie uns damit beginnen, zunächst einmal genau unter die Lupe zu nehmen, über was wir eigentlich sprechen. Bevor wir uns mit dem „künstlichen“ Teil der Intelligenz befassen, wollen wir uns zunächst einmal nur dem Thema „Intelligenz“ widmen. Bis heute ist das Gebiet der „Intelligenz“ weitestgehend unerforscht und es mangelt bereits an einer eindeutigen Definition, was genau Intelligenz eigentlich ist. Die bestehenden Definitionen verschwimmen zwischen Biologie, Physik und Philosophie. Auch bis zum heutigen Tage verstehen wir nicht genau, wie wir Menschen eigentlich funktionieren. Laienhaft kann man sagen, dass unser Körper von Nervenbahnen und Muskeln durchzogen ist, wobei in deren Steuerungszentrale, dem Gehirn, alle Fäden zusammenlaufen. In unserem Gehirn und den Nervenbahnen fließen Neuronen hin und her und schalten und walten ganz ähnlich wie in modernen Computerprozessoren unser Denken und Handeln. Ab der Geburt, und genau genommen schon vorher, lernen wir Menschen nach und nach all unsere Fähigkeiten. In unseren ersten Lebenswochen erlernt unser Gehirn beispielsweise, dass das, was wir vor unseren eigenen Augen sehen, unsere eigenen Arme, Hände, Beine und Füße sind und wir diese mit gezielten Muskelkontraktionen steuern können. So wird aus dem süßen tollpatschigen Baby, das sich unbewusst mit der Hand ins Gesicht schlägt, irgendwann das süße Kleinkind, das bewusst seine wackeligen ersten Schritte macht. Hinter diesem Prozess steckt ein uns bisher nicht vollständig verständliches komplexes Zusammenspiel von Nerven, Gehirn und Muskeln. Man könnte sagen – ein Wunder. Je mehr wir das Gebiet erforschen, umso mehr sehen wir aber auch, dass es im Grunde genommen zwar sehr komplex aussieht, im Kleinen aber einfache biologische und physische Prozesse sind, die zusammenwirken. Noch weitaus komplizierter wird es, wenn man einmal darüber nachdenkt, was genau unsere Seele ist, wo unser freier Wille entsteht und einfach gesagt, was uns eigentlich jeden Morgen dazu bringt aus dem Bett aufzustehen und all das zu tun, was wir den ganzen Tag lang so tun.

Der Volksmund würde uns Menschen pauschal als intelligente Wesen deklarieren. Manche sicherlich intelligenter als andere. Der Mensch tut Dinge mit Verstand. Der Mensch wägt ab. Der Mensch plant voraus. Der Mensch agiert basierend auf Erfahrungen und Gelerntem. Der Mensch probiert aus. Der Mensch macht aber auch Fehler. Warum das so ist? Eine Frage, die wir nach heutigem Kenntnisstand nicht vollständig beantworten können. Aber wir sind uns sicher – wir sind intelligent.

Und nun hat der Mensch sich das ehrgeizige Ziel gesetzt diese „Intelligenz“, die er weder genau versteht, noch genau definieren kann, künstlich nachzubauen. Halten wir also schon einmal fest, dass wir das Ziel, was wir verfolgen, nicht genau verstehen oder definieren können.

Wir sind nun angekommen bei den interessanten Aspekten dieses Dilemmas, das dieses Thema unheimlich reizvoll, spannend und vielseitig macht. Die Forschung rund um die künstliche Intelligenz betritt ein neues Feld und treibt die anderen Forschungsrichtungen vor sich her und hat inzwischen sogar dazu beigetragen, dass wir Menschen uns besser verstehen.

Vereinfacht gesagt hat man damit begonnen, die erforschten Bereiche und Funktionsweisen des menschlichen Gehirns mit Computern, die letztlich sehr komplexe elektronische Verschaltungen sind, nachzubilden.

Mensch gegen Maschine – zwei einfache Beispiele

Für das folgende Gedankenexperiment stellen Sie sich ein Foto einer beliebigen Katze vor. Wer kann schneller erkennen, ob es sich bei dem Tier auf dem Foto um eine Katze handelt – Mensch oder Maschine? Die Antwort ist in aller Regel – der Mensch. Für ein weiteres Gedankenexperiment überlegen Sie bitte kurz, wem es leichter fällt die folgende Formel auszurechnen: (2342 * 2345) / 234444 + 23445 * 12499584 – Mensch oder Maschine? Wir geben uns in dieser Disziplin wohl gerne der Maschine geschlagen und nutzen in aller Regel den Taschenrechner für solche Aufgaben.

Eine Forscherin der Stanford University hat gemeinsam mit Google einer künstlichen Intelligenz beigebracht, Katzen auf Bildern zu erkennen. Beliebige Katzen, in beliebigen Farben, Positionen und Ausschnitten. Hierfür musste die künstliche Intelligenz in einem mühsamen Prozess mit über 1 Million Bildern händisch trainiert werden. Legt man dieser künstlichen Intelligenz danach ein Bild eines Hundes vor, ist sie ratlos.

Was wir in diesen beiden Gedankenexperimenten sehen können, ist, dass Computer wahnsinnig gut mit strukturierten, formalisierten Inhalten arbeiten können, wie es beispielsweise Rechenformeln sind. Es gibt hier klar definierte Zahlen, Operatoren und Rechenregeln, die eingehalten werden müssen, um zu einem Ergebnis zu kommen. Computer können dies in Geschwindigkeiten erledigen, die für das menschliche Gehirn nicht denkbar sind.

Wir können ebenfalls erkennen, dass das menschliche Gehirn gemeinsam mit seinen verschiedenen Sinnesorgangen beeindruckend gut mit unstrukturierten und unvollständigen Datensätzen arbeiten kann. Wir lernen als kleines Kind einmal was eine Katze ist und können bis an unser Lebensende Katzen erkennen; auch Katzen in anderen Farben und gänzlich anderen Formen. Wir Menschen sind in der Lage, das Format „Katze“ entsprechend zu abstrahieren und in völlig neuen Gegebenheiten anzuwenden. Der einfachste Weg dies zu verdeutlichen ist, dass jeder Mensch, der weiß wie eine Katze aussieht, in der Regel auch eine Katze zeichnen kann. Diese Zeichnungen haben meist immer mindestens eines gemeinsam – die spitzen Katzenohren. Meist fügen wir außerdem noch einen Schwanz hinzu.

Der beeindruckenden Forschung der Stanford University ist es zu verdanken, dass wir diese Fähigkeiten auch Computern antrainieren können. Gleichzeitig zeigt diese Forschung aber auch die enormen Herausforderungen auf, die ein solches Ziel mit sich bringt und verdeutlich ganz nebenbei, die sehr unterschiedlichen Stärken und Schwächen, die wir Menschen und Computer haben.

Anwendungsfelder künstlicher Intelligenz im Banking & Payment

Im Bereich Payment ist das Thema künstliche Intelligenz, insbesondere der Teilbereich maschinelles Lernen und Mustererkennung, bereits seit langer Zeit fester Bestandteil. Das prominenteste und verbreitetste Beispiel ist die Risikoüberwachung bei Zahlungsdienstleistern und Kreditkartenunternehmen. Durch Systeme, die auf künstlicher Intelligenz aufbauen, wird das Aufdecken von Kreditkartenbetrug heutzutage in aller Regel in Echtzeit unterstützt. Etabliert haben sich in diesem Bereich Unternehmen wie zum Beispiel Risk Ident, Fraugster oder Feedzai, aber auch Unternehmen wie Adyen setzen auf diese Technologien. Im Bereich Forderungsmanagement etabliert sich derzeit das Unternehmen collectAI aus der Otto Gruppe, die eine durch künstliche Intelligenz optimierte, automatisierte und individualisierte Kundenansprache im Forderungsmanagement umsetzt und hiermit Aufwände minimiert, bei gleichzeitig höheren Erfolgsraten im Forderungsprozess.

Etwas differenzierter und noch nicht ganz so verbreitet ist der Einsatz der neuen Technologien im Bereich Banking. Erste Marktteilnehmer etablieren sich im Bereich der Robo Advisor, wie beispielsweise Scalable Capital, die einen value-at-risk Investmentansatz verfolgen und fortschrittliche Risikomanagement- und Simulationsalgorithmen benutzen, die im Kern auf Technologien der künstlichen Intelligenz beruhen. Finale Investmententscheidungen werden aber auch hier interessanterweise immer noch  von  Menschen kontrolliert. Mehr und mehr Anwendungen findet man im Bereich der Auswertungen von Bankkonten, die automatisiert Ausgaben Kategorien zuordnen und Muster in Kontenbewegungen aufspüren, um Budgets und Ausgaben zu planen oder zu kontrollieren. Beispiele auf diesem Gebiet sind die App numbrs, der Kontowecker der Sparkassen oder N26. Noch weiter gehen schließlich Programme, die selbstständig Kontobewegungen auslösen, wie beispielsweise savedroid. Hinzu kommen Applikationen, die Finanztipps auf Basis der vorliegenden Erkenntnisse geben und mehr und mehr Chatbots sowie Self-Service Angebote. Kombiniert man all diese Dinge und denkt sie ein bisschen weiter, wird in Zukunft eine vollautomatisierte, individualisierte und durch künstliche Intelligenz unterstützte vollumfängliche Bankberatung möglich sein.

Das Bankgeschäft erweist sich als prädestiniert für den Einsatz dieser Technologien aus dem einfachen Grund, dass die Datengrundlage von Banken hoch standardisiert und die Prozesse in Banken stark reglementiert und formalisiert sind. Einfach ausgedrückt kann man annehmen, dass Prozesse in Banken insbesondere dann durch künstliche Intelligenz gestützte Technologien ersetzt oder erweitert werden können, wenn sie klaren und formalen Regeln folgen.

Was in der Zukunft mit künstlicher Intelligenz im Banking & Payment wichtig wird

Insbesondere mit dem Blick auf das Payment und Banking Umfeld haben wir einige Aspekte identifiziert, die wir bei den Fortschritten in der künstlichen Intelligenz für die wichtigen Themen der Zukunft halten.

Diese Aspekte sind:

  • Auditierung von Algorithmen und automatisierten Entscheidungsprozessen
    Wenn Algorithmen und KIs wichtige Entscheidungen treffen, dann muss dies nach klaren Regeln und nachvollziehbar erfolgen. Nachvollziehbarkeit ist in den meisten KI-Systemen nur schwer herstellbar. Hierfür muss eine Lösung gefunden werden, so dass Audit-Anforderungen trotzdem erfüllt werden können.
  • Regulierung für algorithmische Entscheidungsprozesse
    Nicht nur unternehmensinterne Audit-Vorgaben werden zu berücksichtigen sein, sondern auch von Seiten der Regulatoren wird es Vorgaben geben und diese müssen nachprüfbar sein. Starre regulatorische Vorgaben und dynamisch mit-wachsende KI-Systeme scheinen nur schwer vereinbar. Dies erfordert auf beiden Seiten neue Wege.
  • Datenqualität
    KI-Systeme basieren in aller Regel auf großen Datenmengen, nur so erzielen sie gute Ergebnisse und produzieren Effizienzgewinne. Sehr einfach und treffend zusammenfassen kann man dies mit dem bekannt IT-Sprichwort: „Garbage in. Garbage out.“ Will man qualitativ hochwertige Entscheidungen, benötigt man qualitativ hochwertige Daten.
  • Raum für Fehler
    Wie in diesem Artikel anfangs ausgeführt wurde, lernen KI-Systeme ganz analog wie wir Menschen. Menschen machen Fehler und genauso machen auch KI-Systeme Fehler, meist durch schlechte Datenqualität oder schlicht falsches Training. In einer Welt mit 0 % Fehlertoleranz, zu der die Banken- und Paymentwelt neigt, bedeutet dies eine neue Herausforderung. Das ist insbesondere von Bedeutung, da es meist um Massentransaktionsgeschäfte geht, bei denen echtes Geld bewegt wird. Hier gilt es solide Testframeworks zu entwerfen, die insbesondere im Hinblick auf die Besonderheiten von selbstlernenden und sich selbst verändernden Systemen konstruiert werden.
  • Risiken der Datenmonopole
    Wie es schon auf der Kinoleinwand Spiderman lernen musste: „mit großer Macht kommt große Verantwortung“. Je größer und bedeutsamer Datenmonopole werden, umso größer wird das Risiko, dass diese missbraucht werden. Politik, Behörden und Gesellschaft werden Wege finden müssen, Datenmonopole zu vermeiden und für einen fairen, gesunden Wettbewerb zu sorgen, um die Risiken der voranschreitenden Machtkonzentrationen einzudämmen.
  • Regulatorische Entscheidungsprozesse
    Wie gibt man regulatorische Freigaben für selbstlernende und sich selbst verändernde Systeme? Lizenzvergabe- und Kontrollprozesse müssen sich mit den technischen Entwicklungen mitentwickeln und neue Wege finden.

Ein Plädoyer für die Zusammenarbeit und das ewige Dilemma von KI

Die Welt wird sich verändern. Computer werden Tätigkeiten übernehmen, die heute von Menschen erledigt werden. Aber bis auf weiteres werden Menschen nicht von Computern verdrängt. Viele Aufgaben werden sich verändern und gänzlich neue werden entstehen. Bis auf weiteres werden vor allem Computer uns Menschen brauchen, die ihnen die Dinge beibringen, die wir gerne automatisieren möchten. Ein Computer kann von alleine erstmal weniger als ein Baby, das auf die Welt kommt und das man vollkommen alleine lassen würde. Wie das Baby benötigt der Computer einen Menschen, der ihm die Welt zeigt, erklärt und ihm beibringt, wie er seine Aufgaben zu erledigen hat.

Menschen sollten sich auf die künstliche Intelligenz einlassen und die jeweiligen Stärken von Mensch und Computer einsetzen, um den Gesamtnutzen zu maximieren.  Wir werden damit kostbare Lebenszeit freisetzen, die wir für neue, kreative und wichtige Dinge werden nutzen können, während wir langweilige, wiederkehrende Tätigkeiten mehr und mehr automatisieren werden.

Das große Dilemma von künstlicher Intelligenz ist gleichzeitig der wichtigste Punkt für die Menschen. Computer sind dumm. Computer arbeiten erst dann, wenn man ihnen ein klares Ziel vorgegeben hat; wenn der Mensch ihnen ein Ziel vorgegeben hat. Darin steckt die große Chance, dass Menschen bis auf weiteres nicht überflüssig werden. Gleichzeitig steckt in diesem feinen Detail auch eine große Gefahr. Denn Computer verfolgen das Ziel, das man ihnen vorgibt, mit aller Kraft. Auch, wenn es das falsche Ziel ist oder ein unmoralisches Ziel ist. Dazu zum Abschluss ein sehr einfaches Beispiel zum Nachdenken: Stellen Sie sich eine vollautomatisierte Bankberatung vor. Die künstliche Intelligenz übernimmt alle ihre Bankgeschäfte vollautomatisch, inklusive ihrer Investmententscheidungen. Der dahinterstehende Computer kann nun zwei ähnliche, aber doch grundlegend verschiedene Ziele vorgegeben bekommen. Er kann zum einen das Ziel vorgegeben bekommen, ihr Investment zu maximieren – das heißt risikooptimiert, kostenoptimiert und renditeoptimiert das Beste für Sie herauszuholen. Er könnte aber zum Anderen auch das Ziel vorgegeben bekommen, ihr Investment zu maximieren, dabei aber gleichzeitig die Erträge der Bank zu optimieren, in dem er zum Beispiel ausschließlich ETF-Produkte der eigenen Bank erwirbt, die vielleicht nicht die kostengünstigsten für den Kunden, aber die ertragsstärksten für die Bank sind. Denken Sie, sie würden den Unterschied bemerken? Und wer überwacht diese Algorithmen? Ihre Bank?

Wir stehen erst ganz am Anfang dieser Geschichte…

„Fluch oder Segen – vom (Miss-)Verständnis zwischen Banken und FinTechs“

Fluch oder Segen – vom (Miss-)Verständnis zwischen Banken und FinTechs?

Fluch oder Segen – vom (Miss-)Verständnis zwischen Banken und FinTechs?“

POSTED ON 05. FEBRUARY 2019 BY HENRIK BÜTTGEN

Sind Banken und FinTechs in der Realität angekommen?

Banken und FinTechs, vor nicht allzu langer Zeit noch wie Feuer und Wasser, sind inzwischen in der Realität angekommen. Die FinTechs suchen immer häufiger Unterstützer für die eigenen Ideen und finden diese mehr und mehr im Bankenumfeld, denn auch hier hat ein Umdenken stattgefunden. Und jedes der beiden ehemals „verfeindeten“ Lager scheint seine Position im Spiel um die Kundengunst gefunden zu haben und besinnt sich auf seine Stärken.

Wie kam diese Entwicklung zustande?

Einen nicht unwesentlichen Anteil an der Entwicklung hatten die Medien mit ihrer teils scharfen Berichterstattung. Es wurde das Lied auf das Bankensterben angestimmt, weil die jungen Wilden nun sämtliche Aufgaben der Banken übernähmen und das besser, als diese es je könnten. Dass einige FinTechs zu diesem Zeitpunkt bereits verstanden hatten, wie eine Zusammenarbeit mit den Banken funktionieren kann, blieb dabei unerwähnt.

Doch wie sieht es nun wirklich aus?

Aktuell jagt eine Nachricht über große Finanzierungsrunden für FinTechs die nächste und die Ideen für Dienstleistungen im Finanzsektor werden nicht weniger. Alleine in 2018 wurden im Schnitt pro Woche etwa zwei FinTechs gegründet.

Betrachten wir nun den für uns besonders interessanten Bereich Payments/Zahlungsverkehr, so bewegen wir uns bei den Neugründungen im Bereich und nur etwa zwei Prozent konnten Kapital für ihre Ideen einsammeln.

Warum ist das so?

Was haben die noch am Markt befindlichen FinTechs anders gemacht als diejenigen, die nach dem Verbrauch des Kapitals die Segel streichen mussten, weil sie an der Realität scheiterten? Denn auch diese Nachrichten treten in gleicher Frequenz auf wie die zu Finanzierungsrunden.

Erfolgreiche FinTechs haben allesamt erkannt, dass eine Kooperation mit Banken der richtige Weg zu sein scheint. Hier seien exemplarisch N26, Kontist, Deposit Solutions und  Raisin (u.a. Weltsparen) genannt.

Außer bei N26, die bereits über eine Banklizenz verfügen, nutzen die anderen Unternehmen ein Bankinstitut als Lizenzschirm und auch zur Abwicklung als Basis für den erfolgreichen Betrieb ihrer jeweiligen Geschäftsmodelle.

Besonders wenn das Geschäftsmodell des FinTechs vorsieht, einzelne Teile des Bankgeschäftes zu übernehmen/verbessern/vereinfachen, ist eine Kooperation der Königsweg. Der Versuch, Banken von ihrem ureigenen Terrain vertreiben zu wollen, meist getrieben von übertriebenem Selbstbewusstsein, endete selten gut. Die meisten heutige FinTech Startups haben diese Strategie auch längst verworfen.

Gründe hierfür sind schnell gefunden, denn die Assets der beiden Parteien könnten nicht unterschiedlicher verteilt sein.

Auf der einen Seite stehen die etablierten Banken, die sich in einem stark (viele sagen über-) regulierten Markt bewegen. Auf der anderen Seite befinden sich die FinTechs, die ihren Ideen freien Lauf lassen können und quasi auf der grünen Wiese  Lösungen entwickeln, die den Kunden in den Fokus stellen.

Beide Parteien entwickeln sich in sehr unterschiedliche Richtungen und machen ihre jeweiligen Jobs in hoher Qualität. Banken macht niemand etwas vor, wenn es darum geht, ein neues regulatorisches Thema anforderungswirksam umzusetzen. Die Fähigkeiten zur Entwicklung neuer Ansätze, Modelle und Ideen sind jedoch deutlich weniger ausgeprägt. Ein weiterer Vorteil und großer Mehrwert der klassischen und etablierten Banken stellt das vorhandene Kundenportfolio dar. Die FinTechs hingegen haben das umgekehrte Problem, dass sie noch keine oder eine sehr kleine Kundenbasis haben. Ebenso sprudeln sie vor neuen Ideen und entwickeln Lösungen konsequent und schnell vom Kundenbedürfnis her. Geht es um die Integration in bestehende Legacy-Systeme und Umsetzung regulatorischer Anforderungen, tun sie sich extrem schwer und tendieren dazu, diesen Aufwand massiv zu unterschätzen, auch in ihren Kalkulationen. So sind schon einige gute Ideen an den Regulierungsanforderungen des Bankensektors gescheitert.

Wie bringt man nun beide Seiten zusammen?

Die Herausforderung liegt nun darin, die beiden Seiten zusammen zu bringen und jede Partei ihr Steckenpferd reiten zu lassen. Hierzu gibt es einige erfolgreiche Modelle wie oben bereits erwähnt.

Der Ansatz, aus beiden Welten das Beste zu nehmen und nicht alles selber machen zu wollen, kann sich dann für beide Seiten als Erfolgsmodell herausstellen. Dies konnten wir auch auf der diesjährigen FinTech Week in Hamburg Mitte Oktober sehr deutlich feststellen. Es war auffällig, dass ein Kuschelkurs zwischen Banken und FinTechs herrschte; das wäre vor ein paar Jahren noch undenkbar gewesen, ließ man doch keine Möglichkeit aus, dem anderen seine Unzulänglichkeiten vorzuhalten.

Auch die BaFin machte deutlich, dass an ihr kein Weg vorbeiführt. Mich persönlich hat ein Auftritt des BaFin-Präsidenten auf einer Veranstaltung in Berlin besonders beeindruckt. Dieser Auftritt war von unnachahmlicher Klarheit und machte deutlich, dass die limitierenden Elemente und Compliance-Anforderungen der Bankenaufsicht von FinTechs nicht umgangen werden können. Auch er wies deutlich darauf hin, dass nur Unternehmen am Markt erfolgreich sind, die sich hiermit auseinandersetzen, entweder selber oder in Kooperationen mit bestehenden Instituten.

Zudem ist man auch auf Seiten der Gesetzgebung deutlich liberaler und marktoffener geworden. Es wurden eigens FinTech-Gremien installiert, die den Markteintritt begleiten und erleichtern sollen, zudem wurden auch die Registrierungshürden deutlich gesenkt. Dialog war auch hier der Treiber.

Es ist also von allen Seiten viel Bewegung im Markt, die Teilnehmer bewegen sich aufeinander zu, vergessen sind scharfzüngige Kommentare zu den „Altbänkern“ von Seiten der Jungen Wilden und die „Mal Abwarten“-Kommentare des Establishments.

So muteten die Diskussionspanels der FinTech-Week doch auch ein wenig langweilig an, denn es gab keinen Dissens. Vielmehr wurde deutlich, dass die FinTechs die Banken als Partner gewinnen möchten und nicht als Gegenspieler sehen. Bei der Vorstellung der „Big Four“ aus Hamburg auf einer Panel-Diskussion wurde deutlich, dass die Probleme der FinTechs auf keinen Fall durch die Banken hervorgerufen werden, sondern eher organisatorischer Natur sind.

Auf einem anderen Panel zeigten vier erfolgreiche FinTechs, welche konkrete Rolle Banken in der Zusammenarbeit spielen und von welcher Wichtigkeit sie sind. Die Sutor Bank als eines der Institute, die den Weg der Kooperation konsequent verfolgen, machte deutlich, wie es gelingen kann und auch für die Institute einen Mehrwert bringt. Die schwierigen regulatorischen Themen wurden von der Bank bearbeitet und für die FinTechs zur Verfügung gestellt. Diese konzentrieren sich auf die Entwicklung eines tragfähigen Geschäftsmodells, welches auch längerfristig erfolgreich sein kann. Die Solaris-Bank sollte in diesem Zusammenhang auch genannt werden, weil sie dieses Modell schon länger konsequent verfolgt. So hat jeder seine Assets optimal eingebracht und eine langfristige Partnerschaft ist doch genau das was beide Parteien benötigen.

Was heißt das zusammenfassend?

Somit bleibt zusammenzufassen, dass Kooperationen für beide Lager lohnend sein können, sie müssen aber sinnvoll und verständnisvoll gemanagt werden. Im Rahmen von Überlegungen zu Kooperationen von unterschiedlichen Marktteilnehmern konnte OSTHAVEN in einigen Fällen bereits erfolgreich Projekte begleiten und Marktteilnehmer zusammenbringen. Aus diesen Erfahrungen heraus kennen wir die häufig auftretenden Schwierigkeiten von beiden Seiten und haben sinnvolle abgestimmte Lösungsansätze erarbeitet.

„Quo vadis Auslandszahlungsverkehr?“

Quo vadis Auslandszahlungsverkehr? 3

„Quo vadis Auslandszahlungsverkehr?“

POSTED ON 11. December 2018 BY MICHEL HILKER

Neue Anbieter drängen in einen von Banken bisher dominierten Markt.

Bisher ging man insbesondere in den Banken davon aus, dass der Auslandszahlungsverkehr ein Monopol der Banken sei. Denn bisher war es aufwändig und kompliziert, diesen Service zu erbringen. Für den grenzüberschreitenden Geldtransfer sind Korrespondenzbanken in den verschiedenen Zielmärkten bzw. bereits schon auf dem Weg dahin erforderlich. Daneben arbeiten in den Banken eine Vielzahl an Experten für den Auslandszahlungsverkehr, um die ganze Bandbreite von verschiedenen Dienstleistungen zu erbringen. Dieses „quasi Monopol“ der Banken im Auslandszahlungsverkehr (den Bargeldtransfer von Western Union und Co. Mal ausgeschlossen) löst sich langsam auf und es etablieren sich neue Anbieter erfolgreich im Markt für den Auslandszahlungsverkehr.

Was macht die neuen Anbieter so erfolgreich?

Einige dieser Anbieter haben sich schon erfolgreich am Markt positioniert. Z.B. transferiert das im Jahr 2010 in London gegründete Unternehmen TransferWise nach eigenen Angaben monatlich Beträge im Wert von 2 Mrd. US Dollar und hat bereits 4 Mio. Kunden. Weitere Anbieter im Markt sind u.a. WorldRemit, Remitly oder Azimo.

Warum sind TransferWise und Co so erfolgreich? Die neuen Angebote sind konsequent vom Kunden her gedacht; nicht zuletzt, da sie von frustrierten Bankkunden aufgebaut wurden. TransferWise wurde gegründet, weil die Gründer als Arbeitnehmer im Ausland immer wieder hohe Gebühren für Zahlungen in die Heimat bezahlen mussten. Dabei war es das Ziel, den Geldtransfer von einem Konto auf ein anderes so einfach und günstig wie möglich zu machen. Neben einer einfach zu bedienenden App wurde dieses Ansinnen auch über ein Cash-Pooling erreicht, in dem die verschiedenen Zahlungsströme aggregiert und entsprechend verrechnet werden. Somit muss nur ein Bruchteil der ursprünglichen Summen (Spitzenausgleich) tatsächlich grenzüberschreitend transferiert werden; der Großteil der Zahlungen kann über eine nationale, und damit deutlich günstigere, Verrechnung erfolgen.

Neben den neuen Anbietern bieten aber auch die die etablierteren Marktteilnehmer wie Western Union oder MoneyGram eine Alternative für Kunden, die Geld international versenden wollen.

Das neue digitale Angebot ist eine typische disruptive Innovation

Eine normale Standard-AZV Überweisung kostet bei einer Bank ab ca. 15 Euro. Bei TransferWise starten die Gebühren bei ca. 2 Euro, bei Azimo, einem weiteren digitalen Anbieter, kostet eine Überweisung im Regelfall 2,99 Euro. Bei Western Union beginnten die Kosten für (unbare) Transaktionen bei 5,00 Euro.

Das Angebot der Banken ist in der Regel an den hohen Ansprüchen und umfangreichen Bedürfnissen großer Geschäftskunden ausgerichtet. Daneben bestehen aber auch deutlich einfachere Kundenbedürfnisse, insbesondere von Privatkunden oder kleineren Unternehmen (KMUs). Beispielhafte Auswertungen zeigen, dass insbesondere diese Kundengruppen die neuen Dienstleister nutzen. Es sind nicht nur Privatkunden, sondern insbesondere auch Geschäftskunden, die die niedrigen Gebühren, das einfache Handling und die schnelle Ausführung schätzen, obwohl der Umfang der Dienstleistungen deutlich geringer ist. Somit handelt es sich hierbei um eine potentielle disruptive Innovation.

Was können Banken tun?

In einem ersten Schritt sollten Banken analysieren, wie viele ihrer eigenen Kunden aktuell schon die neuen Anbieter nutzen. Bei einer Analyse für eine Bank durch OSTHAVEN hat sich gezeigt, dass bereits heute durch die Nutzung von TransferWise und Co. der Bank potentielle Gebühren in Höhe von ca. 250.000 Euro p.a. entgangen sein könnten. Auch wenn hier aktuell noch wenige Transaktionen im Verhältnis zum Gesamtvolumen betroffen waren, glauben wir, dass Kunden in Zukunft immer häufiger Nicht-Banken für den Geldtransfer über Ländergrenzen hinweg nutzen werden (die sich wiederum der Infrastruktur der Banken bedienen) und somit weitere Erträge der Banken erodieren.

Neben der Beobachtung der Entwicklung im Nutzungsverhalten der eigenen Kunden sollten Banken weitere Aktivitäten prüfen. Unsere (nicht vollständigen) Ideen:

  1. Soweit noch nicht geschehen, Einbindung des AZV ins Onlinebanking und in die eigenen Apps
  2. Anpassung der Gebührenmodelle, insbesondere für einfache Zahlungsangebote wie die relativ standardisierten Überweisungen z.B. nach Großbritannien oder andere europäische bzw. westliche Länder.
  3. Überlegung, ob Kooperationen mit den neuen Anbietern sinnvoll sein können, um Kunden einen günstigen und einfach zu bedienenden Auslandszahlungsverkehr anzubieten. Dies auch vor dem Hintergrund, dass Banken die Entwicklung sicher nicht aufhalten können. Aber mit einem passenden Profit-Sharing Modell könnten Banken weiterhin (teilweise) an den Erträgen aus dem Geschäft partizipieren. Zudem ließen sich bei einer teilweisen Verlagerung der Standard-Dienstleistungen Einsparungen erzielen.

Erste Banken, wie N26, bieten bereits die Dienstleistungen von TransferWise auf ihrer Plattform an. Damit bieten sich diesen Banken zwei Chancen, sie bieten ihren Kunden eine moderne und zeitgemäße Dienstleistung an und müssen zweitens nicht die aufwendigen Anforderungen für den Auslandszahlungsverkehr alleine umsetzen, sondern können auf Drittdienstleister zurückgreifen.

„Bankenvielfalt im Spannungsverhältnis von Innovation und Wirtschaftlichkeit“

Bankenvielfalt im Spannungsverhältnis von Innovation und Wirtschaftlichkeit 3

„Bankenvielfalt im Spannungsverhältnis von Innovation und Wirtschaftlichkeit“

POSTED ON 06. November 2018 BY JAN BRINGEZU

Kontinuierlicher Rückgang der Anzahl deutscher Banken und Sparkassen.

Per Ende 2017 gab es lt. Deutscher Bundesbank in Deutschland 1.823 Kreditinstitute (Banken und Sparkassen); gegenüber dem Jahr 2007 ist dies ein Rückgang von knapp 20 Prozent.

Allein seit 2015 hat sich die Anzahl der Sparkassen nach Angaben des Sparkassenverbandes um 28 Institute auf 385 (Stand Mai 2018) reduziert. In der genossenschaftlichen Finanzgruppe hat sich die Anzahl der Institute im gleichen Zeitraum sogar um 106 Banken reduziert, auf jetzt 915. Der Bundesverband BVR rechnet mit weiteren Fusionen, jedoch in diesem Jahr auf niedrigerem Niveau als z.B. in 2017 mit einem Rückgang der Institutsanzahl um insgesamt 57

So steigt z.B. seit einigen Jahren die Zahl der Fusionen im Bereich der Sparkassen deutlich an. Die Treiber sind natürlich die Digitalisierung, aber auch die zunehmende Regulatorik im Finanzumfeld sowie die demografische Entwicklung. Bemerkenswert ist, dass die Gesamtzahl der Sparkassen von 594 Instituten im Jahr 1998 auf 390 zum 31. Dezember 2017 zurückgegangen ist – ohne dass ein Institut geschlossen wurde.

Die Zahlen der Vergangenheit sprechen demnach eine deutliche Sprache; verstärkt wird dies zudem durch die laufende Reduktion der Filialen in Deutschland. Nun ist dies zum einen ebenfalls eine Reaktion auf den digitalen Wandel und das sich hieraus ergebende immer weniger ausgeprägte Erfordernis der Filiale als Informations- und Vertriebskanal. Die digitalen Angebote der Banken und Sparkassen (oder alternative Marktplätze wie Interhyp, Finanzcheck oder Zinspilot) werden immer stärker zum primären „Banking-Kanal“. Zum anderen sei Deutschland, wie man seit Jahren immer wieder liest, overbanked. Meines Erachtens gilt dies v.a. institutsübergreifend insbesondere für die Anzahl der Filialen (ok, immer weniger in ländlichen Regionen…). Nach wie vor ist es nicht ungewöhnlich, dass in einer Straße einer deutschen Großstadt drei Filialen eines Instituts anzufinden sind.

Wie geht es weiter?
Wie wird sich der Trend in der Zukunft gestalten? Wird es zu einer Weiterentwicklung kommen oder wird sich das „Bankensterben“ fortsetzen? Hierzu am Rande: keine Sparkasse oder Genossenschaftsbank ist bisher gestorben; es kam nur zu Fusionen innerhalb der jeweiligen Bankengruppe. Und an den letzten Tod einer relevanten Privatbank können sich nur die wenigsten erinnern – seit 2001 musste die Einlagensicherung für 10 insolvente Banken aufkommen, die letzte war im Februar 2018 die Dero Bank.

Die Unternehmensberatung Oliver Wyman malt die Zukunft deutscher Kreditinstitute in ganz schwarzen Farben; so geht man dort davon aus, dass aufgrund der zunehmenden Bedeutung von FinTechs und den großen IT-Konzernen wie Google, Apple, Amazon und Facebook die Anzahl der deutschen Banken im Jahr 2030 auf bis zu 150 sinken könnte.

Es gab zu der Prognose der Kollegen intensive Diskussionen (nicht nur) in den sozialen Medien und man kann von dem reißerischen Aufmacher halten was man möchte, aber alle sind uneingeschränkt der Auffassung, dass die Anzahl der Banken weiter zurückgehen wird. Uneins sind sich die Experten jedoch ob der Konsequenzen einer immer weiter zurückgehenden Diversifikation der deutschen Bankenlandschaft. Und zudem sollte die Frage erlaubt sein, ob eine Fusion zweier (oder ggf. mehrerer) Institute die grundlegenden Probleme löst, die diese Institute überhaupt erst in Fusionsüberlegungen getrieben haben.

Aktuell wird heiß diskutiert und in Teilen von Politik, Wirtschaft und Medien gar gefordert, dass es zu einer Fusion zwischen Commerzbank und Deutscher Bank kommen solle. Die Frage nach der Sinnhaftigkeit stellt sich demnach mehr denn je. Dieser Frage wird im Folgenden mit Hilfe einiger (ja, auch provokanter …) Thesen nachgegangen.

Löst eine Fusion (oder eine Übernahme) grundlegende Probleme deutscher Banken bzw. welche Probleme löst eine Fusion aus?

These I: Fusionen rechnen sich nicht
Es gibt Beispiele, in denen sich Übernahmen einer Bank durch eine andere lohnen (oder in denen geplant ist, dass es sich rechnet …). Als aktuelles Beispiel sei hier die Übernahme der in Abwicklung befindlichen Düsselhyp durch die Aareal Bank genannt. Aber dieses Beispiel ist nicht wirklich geeignet, da Aareal kein strategisches Interesse an Düsselhyp hat, sondern nur positive Einmaleffekte im Rahmen der Abwicklung nutzen möchte.

In der Realität sieht es bei echten Fusionen bzw. Übernahmen jedoch anders aus. Man halte sich nur die noch andauernden Versuche der Schaffung einer einheitlichen IT Plattform bei der Deutschen Bank vor Augen; die Postbank läuft immer noch in weiten Teilen für sich, das Projekt Magellan, das die Basis für eine einheitliche Plattform schaffen sollte, wurde von der Bank gestoppt.

Die Schaffung einheitlicher IT Systeme ist immer mit dem Wechsel von IT Systemen und der Erfordernis von Prozessanpassungen und Datenmigrationen verbunden. Der Grund des Wechsels des Kernbankensystems der apoBank (von Fiducia GAD zu avaloq) liegt hier zwar nicht in einer Fusion, die geschätzten Kosten („niedriger dreistelliger Millionenbereich“) können aber als Benchmark für die IT-Konsolidierung eines zu fusionierenden Institutes dienen. Weitere Beispiele muss man nicht lang suchen und finden sich in allen Sektoren der deutschen Bankenlandschaft.

Wenn man nun über eine Fusion von Deutscher Bank und Commerzbank nachdenkt, dann kann sich eine Fusion nur mit einer einheitlichen IT Plattform rechnen. Und hier weisen beide Häuser einzeln betrachtet bereits keine einheitliche Infrastruktur auf. Vielmehr würden sich in einem fusionierten Institut dann Komponenten der Deutschen Bank, der Commerzbank, der Postbank, der ehem. Dresdner Bank und weiterer Tochterinstitute beider Häuser wiederfinden. … Man könnte diese Liste erweitern, u.a. um den Sachverhalt, dass die Commerzbank das Wertpapiergeschäft demnächst bei HSBC abwickeln lässt und den Zahlungsverkehr bei equens, die Deutsche Bank hier aber einen anderen Weg geht.

Es fällt schwer sich ein Szenario auszumalen, in dem sich eine solche Mammutaufgabe jemals rechnen könnte. Zumal der herbeigesehnte (zumindest) europäische Champion viele Jahre erst einmal nahezu ausschließlich mit sich selbst beschäftigt wäre. Ein passender Übergang zur …

These II: Fusionen sind Innovationskiller
Innovationen haben während eines Fusionsprojektes einen schweren Stand, da die Sicherstellung der gesteckten Ziele (Vereinheitlichung und Verschlankung) neben der Sicherstellung des Tagesgeschäftes die höchste Priorität genießen. Innovationen (in den Augen immer noch sehr vieler Banker nur Wetten auf künftige Erträge) kommen da zu kurz, und werden in solchen Phasen immer wieder “on hold” gestellt, was häufig nichts anderes als deren Einstellung bedeutet.

Und auch nach Vollzug einer Fusion wird es nicht zwingend besser. Es gibt Stimmen (u.a. die bekannter „Influencer“), die eine umfassende Konsolidierung der deutschen Bankenlandschaft herbeisehnen, in der die dann nur noch wenigen Banken ganz viel Zeit, Geld und Muße hätten, sich endlich der Schaffung innovativer Lösungen für ihre Kunden hinzugeben.

Ich halte dies für einen Irrglauben; Wettbewerb ist ein Innovationstreiber. Sind Marktanteile erst unter wenigen Anbietern verteilt, werden Banken in ihren Angeboten immer vergleichbarer. Zudem besteht aus Gründen der Bequemlichkeit immer weniger die Erfordernis, mit innovativen Ideen neue Kunden für sich zu gewinnen. Beleg hierfür ist, dass innovative Ideen in den letzten Jahren aus dem vielfältigen FinTech Umfeld kamen und weniger (oder überhaupt nicht?) aus etablierten Banken.

Die immer wieder genannten Vergleiche mit Ländern, in denen eine eingeschränktere Bankenvielfalt besteht, hinken. Eine BBVA oder eine ING sind nicht deswegen innovativ, weil es in ihren Märkten weniger Banken gibt, sondern weil die Strukturen und die reduzierte Bedeutung der (Verbands)-„Politik“ es ermöglichen (und die unternehmerische DNA es ihnen vorgibt).

These III: Fusionen entziehen Lokalbanken ihre regionale Verwurzelung
Regional geprägte Institute, und dies sind inbesondere (aber nicht nur) Genossen-schaftsbanken und Sparkassen, definieren sich vor allem über ihre Verbindung mit (den Menschen und Institutionen) ihrer Region. Dies zeigt sich in dem gesellschaftlichen Engagement (z.B. der Unterstützung sportlicher und kultureller Einrichtungen oder der Versorgung auch strukturschwacher Regionen) dieser Häuser und in der generationsübergreifenden Treue der Kunden zu ihren Banken.

Aber was macht die seit einigen Jahren in der Region zunehmende Fusionswelle von Sparkassen und Volks- und Raiffeisenbanken mit den Menschen? Auf einmal haben die Menschen in Flensburg und Nordfriesland eine gemeinsame Sparkasse und die Kunden der Volksbanken in Frankfurt, Griesheim und Maingau ein neues großes gemeinsames Institut. Bleibt nach solchen Zusammenschlüssen noch Platz für eine regionale Verwurzelung? Dies läuft nicht immer geräuschlos ab; so gibt es zum Beispiel eine Petition zur Rückabwicklung der Fusion der Sparkassen Schweinfurt und Ostunterfranken. Die Integrität vieler Häuser ist durch die Verwässerung des Regionalprinzipes nicht mehr gewährleistet.

Diese Thesen sollen nicht dazu dienen, Fusionen unter Banken als sinnfrei darzustellen, da es sehr gute Gründe für diese geben kann. Fusionen können der Bankenrettung und damit der volkswirtschaftlichen Stabilität dienen. Fusionen können auch strategisch Sinn machen. Es gibt jedoch keine Automatismen, dass sich Fusionen oder Übernahmen immer lohnen; aus zwei Schwachen wird kein Starker. Die Schwächen der einzelnen Partner (z.B. IT-Legacy, fehlende Innovationskraft, kein zukunftsfestes Geschäftsmodell) werden dann nur fusioniert und ggf. noch vergrößert.

Ein Plädoyer
Dieser Beitrag soll ein Plädoyer für die Aufrechterhaltung der Vielfalt am deutschen Bankenmarkt sein. Auch weiterhin wäre es wünschenswert, große und kleine sowie regionale und internationale Banken zu haben. Traditionelle Institute und Challengerbanken, Multikanal und mobile only, Investmentbanking und nachhaltiges Banking …alles sollte auch in Zukunft typisch für unsere Banken sein!

„PSD2 – Ein Wettlauf gegen die Zeit?“

PSD2 – Ein Wettlauf gegen die Zeit? 4

„PSD2 – Ein Wettlauf gegen die Zeit?“

POSTED ON 28. August 2018 BY JANA SCHNEIDER

Was Banken jetzt für die fristgerechte Umsetzung beachten müssen.

Am 13. Januar 2018 ist die PSD2 in Kraft getreten und ist seitdem geltendes Recht. Doch von Entspannung kann bei den Banken in Europa keine Rede sein, denn noch gibt es einiges zu tun. Für die von der Europäischen Bankenaufsicht (EBA) herausgegebenen regulatorischen Standards zur starken Kundenauthentifizierung und gemeinsamen und sicheren Kommunikation, kurz RTS, haben die Finanzinstitute 18 Monate Zeit zur Umsetzung. Das klingt erst mal nach massig Zeit, aber der erste Eindruck täuscht.

Kernelement der RTS ist die Forderung nach einer Schnittstelle zur Anbindung von Dritten Zahlungsdienstleistern, zu denen Zahlungsauslösedienste (ZAD), Kontoinformationsdienste (KID) und Zahlungsdienstleister, die kartengebundene Zahlungsmittel ausstellen, gehören. Wenn man den Dritten Zahlungsdienstleistern, auch TPP (Third Party Provider) genannt, den Zugriff auf die Kundenkonten nicht über das normale Online-Banking geben möchte, so muss man eine dedizierte Schnittstelle für den Zugriff bauen.

So weit so gut. Doch die Herausforderung liegt nicht unbedingt in der Implementierung an sich, sondern vor allem in dem recht ambitionierten Zeitplan der EBA. Umsetzungstermin für die RTS und der damit verbundenen Schnittstelle ist der 14. September 2019, 18 Monate nachdem die RTS im EU-Amtsblatt veröffentlicht wurden. Zumindest dachte man das immer…

Aber der erste Termin, auf den die Zahlungsinstitute hinarbeiten müssen, ist der 14. März 2019, bereits ein halbes Jahr früher! Die kontoführenden Zahlungsinstitute müssen den TPPs sechs Monate vor Go Live eine Testumgebung einschließlich Support zur Verfügung stellen. Denn das Ganze soll ja ordentlich getestet sein und einwandfrei funktionieren. Die FinTechs konnten sich in Vorgesprächen zu den RTS bei der EBA mit ihrer Forderung durchsetzen, dass die neue PSD2-Schnittstelle die gleiche Performance und Verfügbarkeit wie bei den bestehenden Kundeninterfaces (z.B. beim Online-Banking) aufweisen muss – Stichwort Diskriminierungsverbot.

Doch das ist noch nicht alles. Wenn die Banken denken, dass sie zumindest für die Fertigstellung ihrer Schnittstelle im Live-Betrieb und für alle damit verbundenen organisatorischen Maßnahmen noch bis September 2019 Zeit haben, könnte in den nächsten Wochen das böse Erwachen kommen. Noch hat die BaFin kein konkretes Datum kommuniziert, aber wenn eine Bank die Ausnahmegenehmigung von der Einrichtung eines Fallback-Zugangs bei Nichtverfügbarkeit der eigentlichen Schnittstelle erhalten möchte, dann sollte sie unserer Meinung nach lieber ein Go Live spätestens am 14. Juni 2019 ins Auge fassen. Das Datum ist bei den Behörden schon an der ein oder anderen Stelle mündlich genannt worden. Denn eine der vier Voraussetzungen dafür, kein Fallback-Szenario bereit halten zu müssen, ist der Nachweis von mindestens drei Monaten Nutzung der Schnittstelle im breiten Umfang durch die TPPs, und zwar im Live-Betrieb. Somit landet man bereits im nächsten Jahr Juni als Meilenstein für die Bereitstellung der Schnittstelle; Banken und FinTechs bleiben dem zufolge nur noch 10 Monate Zeit für die Umsetzung der Anforderungen. Ob das schon jedem am Markt bewusst ist? Unser Gefühl sagt uns, dass nicht allen Instituten der Ernst der Lage klar ist.

Und was ist die Konsequenz, wenn die Schnittstelle zwar pünktlich live ist, aber kein TPP die Schnittstelle während der drei Monate nutzt? Das kann zumindest den kleineren Häusern passieren. Auch dafür hat die EBA bereits eine Antwort parat. In dem Fall muss das Institut nachweisen, dass es alles in seiner Macht Stehende getan hat, die Verfügbarkeit der Schnittstelle nach außen hin zu kommunizieren, regelrecht zu bewerben. So zum Beispiel durch eine entsprechende Publikation auf der Homepage, via Social-Media-Kanälen oder in einem anderen geeigneten Netzwerk. Lassen wir uns also überraschen, wie das später in der Praxis aussieht.

Neben dem knappen Zeitplan gibt es noch einige weitere Hindernisse, die es zu bewältigen gilt. Ein brisantes Thema sind beispielsweise die möglichen Geschäftsvorfälle, die ein ZAD für den Kunden über die Schnittstelle auslösen darf. Die Meinung der DK und unter den Verbänden und Instituten war bislang, dass Daueraufträge und Terminüberweisungen nicht unter die PSD2 fallen. Die EBA sieht das ganz anders und hat in ihrer Opinion zur RTS am 13.06.2018 klargestellt, dass ein ZAD genau die gleichen Zahlungen auslösen darf wie der Kunde selber. Nach neusten Informationen, die anscheinend auf einem Austausch der DK-Verbände mit der BaFin zur Umsetzung der RTS Ende Juli beruhen, wird die BaFin der Meinung der EBA folgen und Institute sollten demnach auch Daueraufträge und Terminüberweisungen mit in ihrem Scope aufnehmen, sofern nicht bereits geschehen. Abhängig von der Systemlandschaft ist diese Änderung kein leichtes Unterfangen für die Banken. Die gute Nachricht ist jedoch, dass bei den Daueraufträgen nur die Anlage und Löschung eines Auftrags, nicht die Bearbeitung oder das Aussetzen, durch den ZAD ermöglicht werden müssen. Eine Bestandsanzeige gegenüber dem KID ist weder für Daueraufträge noch für Terminüberweisungen notwendig. Auch Lastschriften bleiben weiterhin von der PSD2 unberührt.

In der Opinion wurde neben anderen Punkten auch noch mal klargestellt, dass dem KID der Zugang zu den gleichen Kontoinformationen gewährt werden muss, die auch der Kunde über seine Online-Zugänge sehen kann. Das ist ersteinmal nichts Neues. Doch jetzt sollen diese Informationen auch einem ZAD auf Verlangen zur Verfügung gestellt werden. Nämlich dann, wenn die Bank Batch-Booking im Einsatz hat, was wohl auf den Großteil aller Banken in Deutschland zutrifft, und somit dem ZAD nicht unmittelbar bei Zahlungsauslösung bestätigen kann, dass die Zahlung gebucht wurde. Mit Hilfe der Kontoinformationen sollen die ZADs in die Lage versetzt werden, selber das Risiko eines Zahlungsausfalls einzuschätzen. Doch wie soll das in der Praxis funktionieren? Hat der Zahlungsauslösedienst in dem Vorgang dann die Doppelrolle des ZAD und KID inne? Muss die Bank diesem dann immer Zugriff auf die Kontoinformationen gewähren ohne dass der Kunde eine weitere starke Kundenauthentifizierung durchführen muss? Oder gelten hier die gleichen Anforderungen und die 90-Tage Regelung wie beim klassischen KID?

Es gibt noch einiges an Klärungsbedarf. Wir werden die aktuellen Entwicklungen und Veröffentlichungen seitens EBA, BaFin und DK weiter mit Argusaugen verfolgen und Sie auf dem Laufenden rund um PSD2 halten.

„3D Secure 2.0 – Facelift oder Quantensprung?“

3D Secure 2.0 – Facelift oder Quantensprung? 3

„3D Secure 2.0 – Facelift oder Quantensprung?“

POSTED ON 13. Juli 2018 BY RALF HESSE

Die neue Generation der Karteninhaber-Authentifizierung „3D Secure 2.0“
3D Secure wurde (und wird auch noch) oftmals als das magische Wundermittel propagiert, welches das Elend des Zahlungsausfalls auf der Händler-Seite heilen sollte. In den frühen Jahren dieses Jahrtausends von VISA ins Leben gerufen und als besagtes Wundermittel prominent platziert, zeigten sich allerdings alsbald die Kinderkrankheiten – an erster Stelle die Probleme mit der „Conversion Rate“ bei den 3D nutzenden Händlern. Der Einsatz von 3D Secure verursachte ungewollte Zahlungsabbrüche durch die Karteninhaber und minderte somit den Umsatz der betroffenen Händler. Die Conversion Rate beschreibt dabei das Verhältnis der Besucher einer Online-Shops auf Basis von Klicks zu den erzielten Conversions, also der Umwandlung von Interessenten in Käufer.

Die Problematik, einerseits das Zahlungsausfallrisiko durch Chargebacks minimieren zu wollen aber gleichzeitig maximal potentiellen Umsatz bei den teilnehmenden Händlern zu ermöglichen, lies sich also nicht in der genutzten Variante des 3D-Verfahrens (Version 1.0) lösen. Als dann noch die Europäischen Zahlungsaufseher mit der PSD2 die starke Kundenauthentifizierung für einen Großteil des bekannten Karten-Zahlungsverkehrs in Europa forderten, hatte man ein Erbarmen mit den Händlern. Die großen Kreditkartenorganisationen (Visa, MasterCard, AmericanExpress und JCB) formierten sich und definierten innerhalb des Gemeinschaftsunternehmens „EMVCo“, welches sich heute maßgeblich um die EMV Standards kümmert, einen neuen Authentifizierungsstandard „3D Secure 2.0“. Dieser sollte aus dem einstigen Wundermittel ein Heilmittel machen, welches flächendeckend die Leiden der Händler eliminieren sollte und gleichzeitig regulatorischen Anforderungen genügen musste.

3D Secure 2.0 ist aber auch die Antwort der Kartenorganisationen auf die Vorgaben der starken Kundenauthentifizierung (der PSD2), die ja bereits zum September 2019 umzusetzen ist. Mit der neuen Spezifikation ist weiterhin gewährleistet, dass die internationalen Schemes einen einheitlichen Standard für Konsumenten, Händler, Issuer und Acquirer anbieten.

Im Oktober 2016 war es dann soweit und die Spezifikation des neuen Standards wurde durch EMVCo veröffentlicht. Betrachtet man die operativen Schritte des neuen Verfahrens aus der Helikopterperspektive, so lassen sich gravierende Veränderungen im Vergleich zum alten Verfahren nicht direkt erkennen. Der Teufel liegt aber wie immer im Detail. Und genau diese Details lassen Hoffnung aufkommen, dass man mit der Version 2.0 tatsächlich ein Heilmittel gefunden haben könnte. Das neue Verfahren hat verschiedene Prozessschritte auf neue (oder zumindest modifiziert wirkende) Rollen definiert. Die klassische, wohl bekannteste Rolle aus Sicht der Händler war im alten Verfahren die Rolle des Merchant Plug-In-Betreibers (MPI). Diese wird in der neuen Spezifikation explizit nicht mehr genutzt. Es bleibt also abzuwarten, wie die heutigen MPI-Betreiber zukünftig mit einer technischen Lösung im 3D Secure 2.0 Verfahren operieren werden (z.B. als technischer Dienstleister eines „3DS Servers“).

Außerdem haben die Produktverantwortlichen bei der EMVCo eine neue Ingredienz beigemischt, die den Zahlungsabbruch im alten 3D Verfahren mindern – ja, wenn nicht sogar abstellen könnte. Der sog. „Frictionless Flow“ erlaubt nämlich im neuen Verfahren eine Authentifizierung ohne zusätzliche Interaktion mit der zu authentifizierenden Person.

Nachdem dann mit dem Herbst-Release 2017 auch die Reglements der beiden größten Kreditkartenorganisationen (VISA und MasterCard) in Bezug auf das neue 3D Secure 2.0 Verfahren adaptiert wurden, gilt es nun, die Umsetzung von 3D Secure 2.0 in den (z.T. neuen) operativen Instanzen voranzutreiben.

Um aber das neue Verfahren nutzen zu können, muss jede teilnehmende Instanz technische Änderungen in ihren Systemen vornehmen, da das Prozedere im Vergleich zur alten Authentifizierung einige Veränderungen mit sich bringt.

Spätestens aber zum 01.01.2020 sollen nach dem jetzigen Plan der MasterCard alle Authentifizierungen nur noch nach dem 3D Secure 2.0 Verfahren durchgeführt werden. Die Visa hat aber schon ihren für April 2018 geplanten Rollout (nur durch Händler initiierte Authentifizierungen) auf den April 2019 verschoben. Der Zeitplan scheint also offensichtlich sehr ambitioniert geplant und wird dann durch die Realität bestätigt werden müssen.

Entscheidend für den Erfolg ist aber die zukünftige Nutzung des Verfahrens durch die E-Commerce Gemeinde – sprich, das Transaktionsaufkommen mittels 3D Secure 2.0 authentifizierter Zahlungsvorgänge. Setzt man also voraus, dass das „3D Secure Räderwerk“ (bestehend aus Access Control Server und Directory Server) durch die operativen Vorgaben und Deadlines der Kreditkartenorganisationen implementiert wird (bzw. werden muss), so bleibt – genau wie im alten Verfahren – der Händler das Zünglein an der Waage des Erfolgs dieser Neuerung. Und genau diese kennen ja die Kinderkrankheiten des alten „Wundermittels“ aus eigener, schmerzlicher Erfahrung und dürften daher ein eher gemäßigtes Interesse an einer (aus deren Sicht ihnen aufgedrängten) Renovierung zeigen.

Der Acquirer als haftende Instanz im 4-Parteien Modell muss zwangsläufig ein immenses Interesse am Einsatz des neuen Verfahrens haben, denn nur über diesen Weg kann er sich flächendeckend von der Haftung im Falle eines Chargeback Fall mittels einer Haftungsumkehr („Liability-shift“) in Richtung der Issuer entledigen. Damit also der Acquirer das neue Verfahren bei den ihm angeschlossenen Händlern effektiv zum Einsatz bringen kann, muss das Problem der „Conversion Rate“ behoben werden. Das wiederum kann per Definition im neuen Verfahren nur dann eliminiert werden, wenn der Großteil der authentifizierten Transaktionen über den neu definierten „Frictionless Flow“ abgearbeitet wird, in welchem eine zusätzliche Sicherheitsabfrage im Authentifizierungsvorgang beim Karteninhaber überflüssig wird. Dieser „Frictionless Flow“ bedingt allerdings, dass der Händler ausreichend viel Informationen über den Karteninhaber und die zu autorisierende Transaktion im Authentifizierungsvorgang an den Issuer leitet, der dann „wohlwollend“ auf Basis eigener Risikobewertungen dieser Authentifizierung ohne weitere Nachfrage beim Karteninhaber zustimmt.

Es besteht also durchaus Unklarheit darüber, zu welchem Prozentanteil am Ende des Tages eine Authentifizierung im „Frictionless Flow“ abgearbeitet wird. Und genau an dieser Stelle lassen bislang die Kreditkartenorganisationen ihre Acquirer im Regen stehen, da sie einerseits keine bindenden Vorgaben an die Issuer hinsichtlich der Risiko-Bewertung im eigenen Haus machen, andererseits den Acquirern aber auch keinerlei Förderung zum Einsatz des neuen Verfahrens beisteuern.

Operativ betrachtet bringt 3D Secure 2.0 viele neue Features mit sich und ist auch aus regulatorischen Aspekten bestens gerüstet. Den Status eines „Facelifts“ dieses Tools kann man also unbedenklich attestieren. Soll 3D Secure 2.0 aber einen „Quantensprung der Authentifizierung“ auslösen – und das Potenzial dazu ist durch die neue Spezifikation gegeben –, so bedarf es weiterführender Definitionen oder aber auch Restriktionen, um die alte Kinderkrankheit der „Conversion Rate“ für immer loszuwerden.

„Banking is necessary, Banks are not“

Der Zahlungsverkehr als bedrohte Kernkompetenz

„Banking is necessary, Banks are not“

POSTED ON 02. Mai 2018 BY DENNIS JÄGER

Das Zitat „Banking is necessary, Banks are not“ bietet ein gutes Entre, wenn es um die Zukunftsgestaltung von Banken geht und ist daher fester Bestandteil von PowerPoint-Slides, die vor der Führungsebene in Banken und Sparkassen gehalten werden. Es lässt sich in diversen Artikeln und Magazinen wiederfinden und wird häufig im Zusammenhang mit der Disruption im Finanzsektor genannt. Die Worte stammen von Bill Gates und wurden vom selbigen bereits 1994 kundgetan. Zu der Zeit befand ich mich in der vierten Klasse und war schlicht über die Einfachheit des Bankensystems verblüfft. Wenn man Geld brauchte, ging …

Download >