Banken sind essentiell für Deutschland
Über die Rolle und Bedeutung von Kreditinstituten gibt es immer wieder Meinungsunterschiede. Ein aktuelles Positionspapier zeigt nun auf, welche Rolle Banken in Deutschland für Menschen, Wirtschaft und Gesellschaft spielen.