ESTADOS UNIDOS

¿Qué significa que Joe Biden diga que la pandemia terminó en EU?

El presidente de los Estados Unidos anunció el pasado domingo 18 de septiembre el fin de la pandemia en su país

El presidente de los Estados Unidos dijo el pasado domingo que la pandemia había llegado a su fin en su país
El presidente de los Estados Unidos dijo el pasado domingo que la pandemia había llegado a su fin en su paísCréditos: ESPECIAL
Por
Escrito en GLOBAL el

El presidente de los Estados Unidos ha declarado el pasado domingo 18 de septiembre el fin de la pandemia en su país, pero ¿Qué significa?

Aunque el presidente Biden ha reconocido que el covid-19 sigue siendo un problema para el país, ha dicho que como tal, la pandemia ya ha terminado.

Joe Biden ha declarado el domingo el fin de la pandemia FOTO: ESPECIAL

Todavía tenemos el problema del covid, pero la pandemia ha terminado

Antes, es menester aclarar que la única instancia en el mundo que puede declarar el fin de la pandemia de covid-19 es la Organización Mundial de la Salud, que fue la que la declaró el pasado 11 de marzo del año 2020.

A pesar de ello, las declaraciones de Biden significan que su gobierno va seguir tomando una posición clara sobre la pandemia, reconociendo que el covid causa estragos, pero, no se van a tomar las medidas con la misma magnitud que la que vimos hace dos años.

Presidente de los Estados Unidos FOTO: ESPECIAL

Con esto, instan a que los Estados Unidos se aleje de las medidas de cuarentenas y el distanciamiento físico, y que en cambio, ponga toda su atención a reducir las enfermedades graves que causa el covid-19.

El director de la OMS dijo que, aunque el final de la pandemia por covid-19 se encuentra cerca, es importante seguir adelante con los esfuerzos contra la enfermedad, pues todavía existe el riesgo de más variantes.