Najnowsze

Najnowsze

Od Nixona do Bidena. Historia wizyt prezydentów USA w Polsce

Wizyty prezydentów Stanów Zjednoczonych w Polsce to dyplomatyczne wydarzenie największego kalibru. W naszym kraju niemal zawsze padały ważne słowa, apele i deklaracje - o odzyskiwaniu wolności, rozszerzaniu NATO i wspólnej obronie terytorium i demokratycznych wartości. Materiał "Faktów o Świecie" TVN24 BiS.