Wizerunek Stanów Zjednoczonych na świecie wyraźnie się poprawił od objęcia prezydentury przez Baracka Obamę. Opinie są lepsze zwłaszcza we Francji – wynika z sondażu. wiadomosci.wp.pl