O futebol é uma das manifestações culturais que está no sangue brasileiro, protagonizando mudanças políticas, econômicas, sociológicas e antropológicas. As arquibancadas e o campo são o respiro de todas as classes, cores e etnias, a diversão dos ricos e da classe trabalhadora. Sendo assim, ele faz parte da identidade brasileira e sua presença pode ter mais impacto do que imaginamos. A seguir, entenda a relação entre esse esporte tão popular e o brasileiro.
O brasileiro e o futebol: Uma relação envolvente e impactante em nossa sociedade
A imigração contribuiu bastante para o desenvolvimento do futebol brasileiro. Muitos clubes foram criados em meados do século XX, por imigrantes italianos, espanhóis, portugueses, alemães, entre outros, concentrados nas principais cidades brasileiras – principalmente Rio de Janeiro e São Paulo. Esses imigrantes contribuíram direta ou indiretamente para a disseminação dos esportes em geral e para fundação de clubes esportivos, em especial de futebol.
Porém por muito tempo o futebol foi um esporte da elite, pois o Brasil passava por um momento politico mais segregado, a escravidão tinha sido abolida há pouco tempo, sem a reforma agrária, e muitos negros não eram aceitos em times esportivos, Quando o futebol foi introduzido no Brasil, no final do século 19, por Charles Miller, o esporte era praticado pela elite branca.
Mas, após um tempo o futebol foi se democratizando e cada vez mais conquistando o coração da classe trabalhadora, tendo também um grande papel na luta contra o racismo. O primeiro time que ficou conhecido como um clube símbolo contra o preconceito no futebol brasileiro foi o Bangu Atlético Clube, time fundado por ingleses, mas formado, em grande parte, pelos operários da Fábrica de Tecidos Bangu, no subúrbio do Rio de Janeiro. Mas foi o Vasco da Gama que entrou para a História ao conquistar um título com um plantel formado quase que inteiramente por jogadores negros, muitos deles “contratados” junto ao Bangu (à época, o esporte ainda era amador, e não havia contratações formais de atletas).
O futebol se tornou identidade nacional, além de influenciar politicamente é a diversão de todos os brasileiros. O Brasil é a pátria com mais títulos da copa do mundo, sendo pentacampeão da competição. O país ficou conhecido mundialmente como o país do futebol, mesmo não sendo o precursor do esporte. Até hoje há protestos em arquibancadas, times e torcedores fazem ações sociais e se manifestam em comemorações políticas influenciando pessoas com seu posicionamento.
O futebol também gera empregos e ajuda na economia. Vendedor vendendo espetinho na porta do estádio, sua fonte de renda:
_______________________________________________
Por Letícia Ferreira Soares Azevedo – Fala! Uninove