Brasil não é mais o país do futebol. Acredito que depois desse vexame na Copa América, isso esteja consolidado. Ninguém mais duvida que o futebol nacional decaiu de forma irrecuperável e foi contaminado por uma série de venenos que o tirou de cena, de forma vergonhosa.