El presidente de los Estados Unidos ha declarado el pasado domingo 18 de septiembre el fin de la pandemia en su país, pero ¿Qué significa?
Aunque el presidente Biden ha reconocido que el covid-19 sigue siendo un problema para el país, ha dicho que como tal, la pandemia ya ha terminado.
Te podría interesar
Todavía tenemos el problema del covid, pero la pandemia ha terminado
Antes, es menester aclarar que la única instancia en el mundo que puede declarar el fin de la pandemia de covid-19 es la Organización Mundial de la Salud, que fue la que la declaró el pasado 11 de marzo del año 2020.
A pesar de ello, las declaraciones de Biden significan que su gobierno va seguir tomando una posición clara sobre la pandemia, reconociendo que el covid causa estragos, pero, no se van a tomar las medidas con la misma magnitud que la que vimos hace dos años.
Con esto, instan a que los Estados Unidos se aleje de las medidas de cuarentenas y el distanciamiento físico, y que en cambio, ponga toda su atención a reducir las enfermedades graves que causa el covid-19.
El director de la OMS dijo que, aunque el final de la pandemia por covid-19 se encuentra cerca, es importante seguir adelante con los esfuerzos contra la enfermedad, pues todavía existe el riesgo de más variantes.