.

Lexikon

Begriff suchen:

Realkreditinstitute

Realkreditinstitute sind Baufinanzierer, die sich auf Kredite spezialisiert haben, die langfristig ausgelegt sind und durch Grundpfandrecht abgesichert werden. Realkreditinstitute werden auch als Hypothekenbanken bezeichnet und unterliegen somit dem Hypothekengesetz. Die Immobiliendarlehen, in der Regel in Form einer Festzinshypothek, werden durch den Verkauf von Pfandbriefen refinanziert.

Zurück