La imagen de EE.UU. ha mejorado de modo notable tras la llegada al poder del presidente Barack Obama, con la excepción del mundo musulmán, que aún se muestra escéptico, según una encuesta del centro de investigación Pew publicada hoy.