Alle Kategorien
Suche

Wer hat das Deutsche Reich gegründet? - Informatives

Schwarz, Weiß und Rot waren die Farben der Nationalflagge des Deutschen Reiches.
Schwarz, Weiß und Rot waren die Farben der Nationalflagge des Deutschen Reiches.
Der Begriff das Deutschen Reiches ist im Allgemeinen aus dem Geschichtsunterricht bekannt. Die meisten verbinden damit eine bestimmte Epoche in der Deutschen Geschichte. Oftmals herrscht aber Unklarheit darüber, wer das Reich gegründet hat und wann es gegründet wurde.

Das Deutsche Reich und wer es gegründet hat

Den Begriff Deutsches Reich haben Sie mit Sicherheit schon oft gehört, er bezeichnet im Regelfall den Staat Deutschland in der Zeit von 1871 bis 1945. Auch in dieser Zeit enthalten sind die Jahre von 1918 bis 1933, in denen Deutschland eigentlich eine Republik war. Doch die geschichtliche Einteilung mit Bezug auf das Deutsche Reich bringt immer wieder Fragen auf, wie zum Beispiel Wer hat es gegründet? Diese und andere Fragen im Bezug auf das Deutsche Reich werden Ihnen in diesem Artikel beantwortet.

  • Das Deutsche Reich ist der staatsrechtliche Name von Deutschland in der Zeit zwischen 1871 bis 1945 gewesen. Bis zum Jahr 1871 wird oftmals der Name "Heiliges Römisches Reich Deutscher Nation" verwendet. Hierbei handelte es sich jedoch um einen weitaus größeren Bereich, als nur den deutschen Sprachbereich. Es war ein Staatenübergreifendes Herrschaftskonstrukt, welches im Jahr 1849 Probleme erfuhr.
  • Die Märzrevolution aus dem Jahr 1848 vollzog sich bis ins Jahr 1849 und im Rahmen dieser Revolution versuchten die revoltierenden Bürger die Reichsgründung zu vollziehen. Allerdings war dies nicht erfolgreich, da die Fürsten Deutschlands und hierbei vor allem der König von Preußen erfolgreich Widerstand leisteten.
  • Am 18. Januar 1871 wurde das Deutsche Reich unter Kanzler Otto von Bismarck gegründet. Die Gründung erfolgte im Anschluss an den Deutsch-Französischen Krieg, der siegreich für die Deutschen verlaufen war. Als Folge des Sieges traten die souveränen Staaten, Baden, Hessen, sowie Württemberg und Bayern dem Deutschen Bund bei. Durch diese Beitritte konnte der föderale Staat Deutschland dann zum Deutschen Reich erweitert werden.

Das Deutsche Reich im späten 19. und frühen 20. Jahrhundert

Die Geschichte des Deutschen Reiches können Sie,zur besseren Übersicht, in drei Abschnitte unterteilen. Da gab es zunächst das Deutsche Reich kurz nach der Gründung bis zum Ende des ersten Weltkrieges. Der zweite Abschnitt beschreibt die Zeit der Weimarer Republik und zum dritten Abschnitt zählt die nationalsozialistische Diktatur unter Adolf Hitler.

  • Der Zeitraum von 1871 bis 1918 beschreibt die Zeit des Deutschen Kaiserreichs. In dieser Phase war die konstitutionelle Monarchie unter Herrschaft Kaiser Wilhelms II. die Staatsform Deutschlands. Neben den Staaten aus den südlichen Gebieten, stießen auch die Mitgliedsstaaten des Norddeutschen Bundes zum Reich dazu und gemeinsam mit den in Preußen herrschenden Hohenzollern konnte zum ersten Mal ein einheitlicher Nationalstaat in Deutschland gegründet werden.
  • Nach dem Ende des ersten Weltkrieges, welcher in Deutschland unter Wilhelm II. geführt wurde, kam es zu keiner weiteren konstitutionellen Monarchie oder einer Monarchie in anderer Form mehr. In der Zeit von 1918 bis 1933 war eine parlamentarische Demokratie die dominante Staatsform in Deutschland, die sogenannte Weimarer Republik. Die Republik wurde am 09. November 1918 ausgerufen und die erste Verfassung wurde Anfang 1919 beschlossen. Die Weimarer Republik war von Krisen und großer Instabilität gezeichnet. Verantwortlich dafür waren zum Großteil die Kriegsfolgen und eine Hyperinflation in der unmittelbaren Nachkriegszeit von 1918 bis 1923. In dieser Zeit wurden ebenfalls viele Umsturzversuche und politische Morde ausgeführt. In der Zeit von 1924 bis 1929 war die Republik relativ stabil. Mit Beginn der Weltwirtschaftskrise 1929 war jedoch der Weg für die Nationalsozialisten geebnet und der Weg zum Untergang war beschritten.
  • Vom Zeitpunkt der Machtergreifung im Jahr 1933 bis zum Ende des zweiten Weltkrieges beherrschte eine totalitäre Diktatur der Nationalsozialisten das Deutsche Reich. Diktator Adolf Hitler hatte 1933 die Macht übernommen und alle politischen und ideologischen Entscheidungen wurden von da an, von dem Diktator und seinen Funktionären getroffen. Diese Zeit wird als eine der dunkelsten Zeiten der Geschichte angesehen, die von Völkermorden, Krieg und Unterdrückung aller Arten geprägt war.

Wie Sie sehen können ist die Geschichte des Deutschen Reiches sehr belebt und von vielen verschiedenen Faktoren geprägt worden.

Teilen: