Ereignisse zu Deutschland Seit dem Ende des zweiten Weltkrieges steht Deutschland unter der Hegemonie der USA, was diese auch weidlich ausnutzen. Deutschlands ist nur noch ein Vasallenstaat der US-UK-Geldmonarchie.