20
PERCALÇOS DA ELABORAÇÃO DE PROPOSTAS DE AVALIAÇÃO DE IMPACTO NO BRASIL: É POSSÍVEL AVALIAR IMPACTOS DE PROGRAMAS DE FORMAÇÃO DOCENTE? Adriana Bauer Pós-graduanda em Educação Programa de Pós-Graduação da Faculdade de Educação Universidade de São Paulo Área: Estado, Sociedade e Educação. Resumo O presente trabalho visa compartilhar com estudiosos do campo da avaliação as vicissitudes da elaboração de uma proposta de avaliação de impacto de um programa educacional, objeto atual de estudo da autora. O estudo provisoriamente intitulado “Avaliação de possíveis impactos de programas de formação docente: a experiência do Programa Letra e Vida” originou-se da preocupação com a escassez de estudos que buscassem aferir impactos de programas educacionais no Brasil. Partindo das dificuldades inerentes a esse tipo de avaliação, e considerando as limitações de conduzi-la individualmente, a autora pretende registrar os desafios metodológicos subjacentes à sua proposta que a impedem de caracterizá-la enquanto avaliação de impacto. A motivação para a produção do artigo não é, portanto, compartilhar resultados de pesquisa, mas sim expor, à comunidade de estudiosos em avaliação, dificuldades encontradas visando à geração de discussão e ao aprofundamento das reflexões sobre a temática. PALAVRAS-CHAVE: Avaliação de impacto, formação de professores, Saresp. Introdução Algumas políticas educacionais implantadas no Brasil, desde meados da década de 1990, destinam parte dos recursos disponíveis à formação e ao desenvolvimento dos professores.

PERCALÇOS DA ELABORAÇÃO DE PROPOSTAS DE AVALIAÇÃO DE IMPACTO NO BRASIL: É POSSÍVEL AVALIAR IMPACTOS DE PROGRAMAS DE FORMAÇÃO DOCENTE?

  • Upload
    usp-br

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

PERCALÇOS DA ELABORAÇÃO DE PROPOSTAS DE AVALIAÇÃO DE IMPACTO NO BRASIL: É POSSÍVEL AVALIAR IMPACTOS DE PROGRAMAS

DE FORMAÇÃO DOCENTE?  

Adriana Bauer

Pós-graduanda em Educação

Programa de Pós-Graduação da Faculdade de Educação

Universidade de São Paulo

Área: Estado, Sociedade e Educação.

Resumo

O presente trabalho visa compartilhar com estudiosos do campo da

avaliação as vicissitudes da elaboração de uma proposta de avaliação de

impacto de um programa educacional, objeto atual de estudo da autora. O

estudo provisoriamente intitulado “Avaliação de possíveis impactos de

programas de formação docente: a experiência do Programa Letra e Vida”

originou-se da preocupação com a escassez de estudos que buscassem aferir

impactos de programas educacionais no Brasil. Partindo das dificuldades

inerentes a esse tipo de avaliação, e considerando as limitações de conduzi-la

individualmente, a autora pretende registrar os desafios metodológicos

subjacentes à sua proposta que a impedem de caracterizá-la enquanto

avaliação de impacto. A motivação para a produção do artigo não é, portanto,

compartilhar resultados de pesquisa, mas sim expor, à comunidade de

estudiosos em avaliação, dificuldades encontradas visando à geração de

discussão e ao aprofundamento das reflexões sobre a temática.

PALAVRAS-CHAVE: Avaliação de impacto, formação de professores, Saresp.

Introdução

Algumas políticas educacionais implantadas no Brasil, desde meados da

década de 1990, destinam parte dos recursos disponíveis à formação e ao

desenvolvimento dos professores.

  2  

Como exemplo, pode-se citar o FUNDEF (Fundo de Manutenção e

Desenvolvimento do Ensino Fundamental e de Valorização do Magistério), que

destinou 15% do total de impostos da vinculação para o Ensino Fundamental e

destinou 60% destes recursos à formação e desenvolvimento dos professores.

E o FUNDEB (Fundo de Manutenção e Desenvolvimento da Educação Básica

e de Valorização dos Profissionais da Educação), que manteve a mesma

subvinculação de recursos para a formação de professores da Educação

Básica. Ampliou-se consideravelmente, assim, a possibilidade dos sistemas

educacionais designarem recursos ao desenvolvimento profissional dos

professores.

Além disso, diversas secretarias estaduais de educação vêm

sistematicamente investindo na formação dos professores. A constatação

desse fato, no caso específico do estado de São Paulo, ocorreu quando a

pesquisadora entrou em contato com os programas de formação ofertados pela

rede pública estadual entre 2003 e 2006, durante pesquisas realizadas para a

concretização do mestrado. Naquele momento, diversas ações foram

planejadas chegando, inclusive, a existir mais de cem (100) propostas de

curso, em diversas áreas, visando ao aprimoramento profissional do professor.

A leitura de documentos oficiais sobre a implantação da política

educacional no Estado de São Paulo, inclusive, permite concluir que a

formação docente foi apresentada como um dos eixos da segunda gestão do

governo Alckmin (2003-2006), inserida em um projeto político mais amplo,

focado na “inclusão social e melhoria do ensino” (São Paulo, 2003:13).

Nesse contexto educacional paulista, almejava-se que as práticas

didático-pedagógicas fossem constantemente aprimoradas, assim como a

gestão das escolas, o que fez da formação continuada dos professores uma

peça-chave para a concretização dessa política: Os conhecimentos, valores e competências que qualificam os educadores para desenvolver um trabalho voltado para a aprendizagem eficaz são adquiridos não apenas durante a formação inicial. Eles se constroem permanentemente na prática e na reflexão sobre essa prática, condição para o desenvolvimento de profissionais autônomos, colaborativos, capazes de agir e decidir, em conjunto, sobre os procedimentos que vão assegurar a cada aluno o direito de aprender. Por essas razões, a SEE fará da formação continuada seu principal foco de atuação e investimento. (São Paulo, 2003:13) [grifos meus].

  3  

Nesse sentido, a qualificação docente e a melhor atuação do professor

foram consideradas fatores preponderantes para o desenvolvimento da

qualidade de ensino e do desempenho dos estudantes, por meio do

“aprimoramento das práticas escolares”. (São Paulo, 1003:15). Ao referenciar

os sistemas de avaliação como importantes formas de acompanhamento deste

“aprimoramento”, o documento faz alguns anúncios sobre como se dará a

avaliação das ações implementadas sem, no entanto, especificar critérios que

pudessem balizar essa avaliação e esse acompanhamento: Os programas de acompanhamento e avaliação, instituídos tanto em nível estadual – Sistema de Avaliação do Rendimento Escolar do Estado de São Paulo – SARESP, quanto federal – Sistema Nacional de Avaliação da Educação Básica – SAEB e o Exame Nacional do Ensino Médio – ENEM fazem parte dos esforços do Estado para conduzir uma política pública que visa construir saberes que gerem competências e práticas capazes de: - Pesquisar e identificar questões sobre a realidade; - Levantar possibilidades de ações; - Implementar as ações identificadas como pertinentes e necessárias; - Avaliar as ações implementadas e utilizar os dados dessa avaliação para reiniciar processos de transformação da realidade. (São Paulo, 2003:30) [grifos nossos] [...] A referência a esses sistemas não exclui outros procedimentos de acompanhamento e avaliação que ampliem as possibilidades de os gestores intervirem de modo mais qualificado na remoção dos obstáculos que dificultam o ensino no âmbito da escola pública. (São Paulo, 2003:20)[grifos meus].

Apesar das intenções de acompanhamento e avaliação dos programas

estarem amplamente divulgadas nos documentos oficiais da Secretaria de

Educação de São Paulo, não foram encontradas referências a essa avaliação

em outros documentos pesquisados. Isso acontece também em documentos

específicos do programa de formação continuada denominado Teia do Saber, a

partir do qual se desenvolvem todos os programas de formação da Secretaria

da Educação, dentre os quais o “Letra e Vida”. Este é um programa de

formação para professores alfabetizadores, destinado aos professores do

primeiro segmento do ensino fundamental, mais especificamente aos

professores de 1ª e 2ª séries, objeto do de estudo em nível de doutorado da

autora. Assim como em outros programas de formação do governo, nos

documentos do “Letra e Vida” são feitas afirmações sobre a necessidade de

  4  

seu acompanhamento e avaliação, mas não há especificações acerca de

mecanismos de avaliação do impacto do programa.

O fato da avaliação de possíveis impactos e resultados do programa de

formação não estar especificada nos documentos chamou a atenção da

pesquisadora, principalmente se comparado com a ênfase dada na avaliação

dos resultados dos programas enquanto fator essencial para seu

redimensionamento.

Para além da análise documental, durante a pesquisa empírica realizada

pela autora no processo de elaboração da sua dissertação (BAUER, 2006), foi

possível verificar que são raros os momentos em que programas da Secretaria

Estadual da Educação de São Paulo são avaliados formalmente. Além disso,

as avaliações, quando realizadas, tendem a focar a implementação do

programa ou seus resultados imediatos, deixando de lado o estudo sobre o

impacto dos mesmos. Não seria de se esperar que no momento em que o

discurso da qualidade, da eficiência e eficácia de programas é utilizado como

justificativa das ações desencadeadas, a avaliação dos impactos, da

efetividade ou da eficácia dessas ações fosse incorporada aos desenhos das

políticas?

Tal questionamento deu origem a outros: seria possível saber em que

medida os esforços realizados no sentido de melhorar a qualidade da formação

docente surtem efeito sobre a “qualidade do trabalho docente” ou sobre a

atuação dos professores? Como avaliar a influência que programas de

formação têm sobre a atuação docente e o desempenho dos alunos? Quais

seriam, então, os possíveis impactos das ações formativas na prática docente

e nos resultados dos alunos?

Foi a partir destas questões que o objeto e problema do estudo,

proposto pela autora, em nível de doutoramento, foram definidos: investigar,

com lastros empíricos, eventuais impactos do Programa Letra e Vida,

implantado em 2003 pela Secretaria Estadual de Educação de São Paulo, com

o objetivo de promover uma “mudança nos paradigmas de alfabetização e de

formação docente” (Brasília/MEC, 2001), e influenciar tanto a prática docente

quanto a qualidade do ensino e da aprendizagem. Para esse estudo, as

análises focariam os professores do Ensino Fundamental 1, mais

especificamente os da 1ª série do ciclo de alfabetização.

  5  

O objetivo geral da pesquisa, inicialmente, era analisar eventuais

impactos do Programa Letra e Vida na atuação dos professores e no

desempenho de alunos e professores. E seus objetivos específicos:

- Identificar evidências, na organização do trabalho em sala de aula, de

utilização de princípios metodológicos do Letra e Vida.

- Analisar eventuais diferenças no desempenho de alunos de escolas

estaduais no SARESP que possam ser atribuídas ao “Letra e Vida”.

- Procurar indícios, nos discursos dos professores, que evidenciem a

influência (ou não) da formação recebida em sua prática cotidiana.

- Elencar dificuldades e desafios que se impõem aos professores para

fazer uso dos conhecimentos teóricos adquiridos durante o curso em sua

prática cotidiana.

Feitos os primeiros delineamentos, a autora passou à análise

documental e ao levantamento de dados para realização da pesquisa. Foi

quando as primeiras dificuldades e desafios se impuseram, levando-a a refletir

sobre a organização dos dados das avaliações e as dificuldades relacionadas

ao fazer do pesquisador. Antes de compartilhar essas inquietações, porém,

será realizada uma breve análise do significado de avaliação de impacto.

O que é avaliação de impacto?

A avaliação de um programa social pode envolver diversas etapas: a

análise da proposta (examina se o programa é importante e relevante para o

objetivo pré-definido e se o desenho está adequado, projeta possíveis

resultados, etc.), da implementação (avalia se o projeto está sendo conduzido

conforme o planejado), dos resultados imediatos (analisa se o programa

implementado atingiu os objetivos previamente definidos) e dos impactos. As definições sobre o significado de avaliação de impacto são diversas,

não havendo um consenso, por parte da comunidade científica e dos

avaliadores, sobre o significado do termo. Usualmente, a avaliação de impacto

é entendida como a forma de medir o efeito de um determinado programa, a

fim de saber em que medida seus objetivos foram atendidos. Essa avaliação é

  6  

realizada algum tempo depois do término de um projeto (ou de uma fase do

projeto) com o propósito de avaliar o impacto causado por ele.

Algumas organizações internacionais, como o Banco Mundial e a

Organização para a Cooperação Econômica e para o Desenvolvimento

(OCDE), atestam a importância desse tipo de avaliação para o

desenvolvimento dos países e buscam desenvolver expertise na medida de

impacto, inclusive patrocinando diversos projetos de avaliações. Tais

organizações apresentam, também, suas definições para o significado do

termo e as funções da avaliação de impacto: Uma avaliação de impacto avalia as mudanças no bem-estar dos indivíduos, famílias, comunidades ou empresas que podem ser atribuídos a um determinado projeto, programa ou política. A questão central da Avaliação de impacto é o que teria acontecido a aqueles que receberam a intervenção se não tivessem efetivamente recebido o programa. Uma vez que não podemos observar este grupo tanto com e sem a intervenção, o principal desafio é desenvolver um contra-factual – que é um grupo, que tanto quanto possível, semelhante (em dimensões observáveis e não-observáveis) para aqueles que recebem a intervenção. Esta comparação permite o estabelecimento da causalidade definitiva – atribuindo mudanças observadas no bem bem-estar ao programa, enquanto elimina fatores que possam causar distorções. A avaliação de impacto é destinada a fornecer retroação para ajudar a melhorar o desenho de programas e políticas. Além de proporcionar informações para aperfeiçoar a “accountability”, as avaliações de impacto são um instrumento dinâmico de aprendizagem, permitindo os formuladores de políticas melhorar os programas em andamento e, em última instância, atribuir melhor fundos aos diferentes programas. Existem outros tipos de avaliações de programas incluindo apreciações organizacionais e processos de monitoramento, mas estes não estimam a magnitude dos efeitos com clareza de causalidade. (Fonte: http://web.worldbank.org. Acesso em 21/11/2008) [tradução livre da autora]. O ponto de partida é a definição de impacto do Comitê de Ajuda ao Desenvolvimento (CAD), que é a seguinte: estabelecimento de resultados, positivos e negativos, efeitos de longo-prazo, primários ou secundários, produzidos por uma intervenção para o desenvolvimento, direta ou indiretamente, intencional ou involuntária. Esta definição amplia avaliação de impacto além de efeitos diretos para incluir a gama completa de impactos em todos os níveis da cadeia de resultados. (Fonte: Draft NONIE statement on impact evaluation. Disponível em: http:// www.oecd.org/dataoecd/19/29/40104352.pdf. Acesso em 17/11/2008).

  7  

Apesar da aparente consonância sobre a medida dos efeitos de uma

ação ser a principal razão para a realização das avaliações de impacto, a

terminologia também aparece relacionada a um uso prévio da avaliação, com o

objetivo de prever impactos possíveis de um programa, antes de sua

implementação. Ex-ante ou avaliação de impacto: ou uma avaliação que visa a prever a possibilidade de alcançar os resultados esperados de um programa ou intervenção ou a previsão seus efeitos inesperados. Esta é realizada antes do programa formalmente aprovada ou intervenção ou começaram. (Fonte: The Independent Evaluators’ Webring. Acesso em 20/11/2008) [tradução livre da autora].

Cabe ressaltar que esse uso terminológico aparece relacionado a

avaliações ex-ante e a “impact assessment” enquanto que o uso mais comum,

relacionado à medida dos efeitos de uma determinada iniciativa, usualmente

relaciona a avaliação de impacto ou “impact evalution” com avaliações ex-post.

De qualquer forma, a avaliação de impacto também é vista como um

instrumento importante para a realização da accountability. Tal termo tem sido

utilizado tanto no sentido de “prestação de contas” quanto no sentido de

“responsabilização” e, em ambos os sentidos, a avaliação de impacto tem sido

apontada como mecanismo importante.

Contudo, por sua natureza, esta é uma avaliação extremamente

complexa e nem sempre é possível realizá-la nas Ciências Humanas, o que

talvez explique a pouca difusão, na literatura sobre avaliação de programas

sociais (e, portanto, educacionais), de experiências desse tipo de avaliação.

Para que seja possível compreender a dificuldade de avaliar impacto, é

necessário compreender alguns dos principais princípios desse tipo de

avaliação.

Segundo Sulbrandt (1993), para que seja possível avaliar os efeitos que

foram produzidos em uma determinada situação a partir da realização de

certas políticas ou programas, é necessário identificar as mudanças ocorridas

em decorrência do programa, buscando identificar a efetividade do mesmo.

Para que isso ocorra é preciso encontrar mecanismos que permitam

estabelecer relações de causalidade entre as ações do programa e resultados

finais específicos, isto é, “estabelecer os efeitos natos de uma intervenção

social. Se entender por efeitos natos aqueles que são estritamente imputáveis

  8  

ou atribuídos ao programa, livres de possíveis efeitos de outros elementos

contaminantes que estão presentes na situação” (SULBRANDT, 1993: 317).

Ora, nas ciências biológicas e exatas, isolar o efeito de uma variável

pode ser mais simples do que em Ciências Sociais, para as quais são

colocadas algumas questões: como isolar, por exemplo, o efeito de um curso

na prática de um profissional, sem a possibilidade de controlar os

conhecimentos que ele tinha anteriormente?

Quando se trata de avaliar efeitos de um programa sobre o ser humano,

cujas ações e reações envolvem uma complexidade de fatores, é possível

eliminar outros “efeitos contaminantes”, que possam interferir no resultado da

avaliação? É possível desenvolver indicadores ou instrumentos de medida de

resultados que isolem os aspectos que podem ter interferido no processo e

reflitam se as metas do programa foram atingidas de acordo com o esperado?

Somam-se a essas questões, duas outras, anteriores, inclusive, à

própria medida de resultados: as metas dos projetos/ programas

implementados, cujo impacto se deseja avaliar, são suficientemente bem

definidas e articuladas para que, a partir delas, os impactos esperados sejam

medidos? A implementação do projeto ou programa foi realizada de forma

adequada para alcançar os objetivos desejados sem ?

Segundo Sulbrandt (1993) e Freeman (1993) esses seriam pré-

requisitos básicos para a realização de uma avaliação de impacto e que, nem

sempre, podem ser garantidos, principalmente se o programa não prevê esse

tipo de avaliação e, portanto, não há a preocupação direta com fatores

essenciais para a realização da avaliação.

Além disso, as características que as políticas e programas sociais

assumem, atualmente, também dificultam a realização de avaliações de

impacto, que envolvem metodologias mais rígidas e complexas para que os

resultados obtidos sejam confiáveis. Na visão de Sulbrandt (1993), os aspectos

mais importantes dos programas sociais, que dificultam aferições de

efetividade, são: a) Os problemas estruturais que se pretendem enfrentar

mediante as políticas e programas são debilmente estruturados e não podem ser definidos de maneira rigorosa.

b) As políticas e programadas desenhadas e aprovadas pelo governo não perseguem um objetivo único, mas sim

  9  

objetivos múltiplos, às vezes inconsistentes, e suas metas são definidas de maneira ambígua, da qual emanam não somente problemas técnicos mas também necessidades táticas para assegurar sua aprovação.

c) As metas tendem a ser redefinidas no transcurso da implementação. Uma das razões que explica estas modificações e mudanças de metas é o processo de aprendizagem social que uma organização experimenta ao desenvolver um programa.

d) O caráter fraco das tecnologias utilizadas na quase totalidade dos programas sociais significa que as supostas relações causais que vinculam os insumos e as atividades com os produtos, resultados e impactos não respondem a um conhecimento certo e válido, mas sim que, no melhor dos casos, constituem somente hipóteses a verificar. (SULBRANDT, 1993: 325-326) [ tradução livre da autora].

Seria possível desenvolver modelos alternativos de análise de

efetividade de um programa, que considerem as informações já existentes,

sejam factíveis e possam iluminar o entendimento sobre os resultados das

ações realizadas, contribuindo com a gestão pública de serviços educacionais?

Quais são as tecnologias de análise disponíveis para que se isolem as

variáveis intervenientes em um processo de formação docente, por exemplo, e

que cuidados elas demandariam, já na implementação do programa, para que

informações essenciais ao seu uso possam ser produzidas ou coletadas?

Além disso, caso não seja possível mensurar impactos desse tipo de

programa, como potencializar o uso das informações obtidas pelos sistemas de

avaliação já existentes, visando analisar e compreender a realidade

educacional em sua complexidade e possibilitando a proposição de políticas

baseadas em dados confiáveis?

Que experiências de avaliação de impactos têm sido geradas no âmbito

das universidades e das instituições de pesquisa especializadas em avaliação

e que podem servir para iluminar os meandros metodológicos da medida de

impactos de programas de formação? É possível estudar impacto sem utilizar

métodos experimentais ou quase-experimentais? Antes: vale à pena fazer esse

tipo de estudo em políticas que tendem a ser focalizadas e que podem mudar

com uma freqüência maior que o desejado, devido à sua vinculação ao

contexto político?

Tais preocupações motivam o compartilhar dos percalços gerados pela

pesquisa até o presente momento, pois a busca de soluções para essa questão

deveria, antes de tudo, ser coletiva.

  10  

(Des) Caminhos da pesquisa: há luz no fim do túnel?

No que se refere à formação docente, um estudo bibliográfico inicial

mostrou que, apesar da década de 90 ser marcada por uma proliferação de

estudos sobre a formação dos professores e seu caráter de desenvolvimento

profissional, a maioria deles reflete uma concepção de que a formação deve

relacionar-se ao atendimento das necessidades da escola e do sistema

educacional. Nesse sentido, observa-se que o tema adquire relevo no âmbito

das políticas públicas. Tal preocupação aparece em documentos oficiais: [...] cada vez mais vem se formando um consenso a respeito das condições fundamentais para a garantia de qualidade do ensino e da aprendizagem: existência de um projeto pedagógico compartilhado por toda comunidade escolar; formas de organização e funcionamento ágeis; corpo docente estável; existência de uma equipe de profissionais que planeja o trabalho educativo em colaboração e toma decisões coletivamente; uma perspectiva de experimentação, avaliação e revisão constante da experiência profissional; condições gerais de trabalho e salário; apoio administrativo; conhecimento do professor sobre os conteúdos que vai ensinar e sobre as condições necessárias para a aprendizagem de seus alunos; qualidade do material didático a que os alunos têm acesso; existência de bibliotecas escolares; tempo de permanência dos alunos na escola. Entre essas condições, a formação de professores destaca-se como uma das mais importantes no conjunto das políticas públicas para a educação. (BRASIL, 1997:9) [grifos meus].

Aceitando esse tipo de relação direta entre formação de professores e

resultados educacionais dos alunos, percebe-se que medir os efeitos da

primeira nesses resultados assume papel importante, inclusive para reforçar

essa relação.

É importante destacar, contudo, que a existência de tal relação (entre

formação docente e o desempenho dos alunos) gera muitas controvérsias

entre os pesquisadores e estudiosos, não sendo sempre aceita na comunidade

científica. . Enquanto alguns autores acreditam que a relação entre a formação

dos professores e o desempenho dos alunos é frágil, outros defendem que

esses elementos estão intimamente relacionados. Portanto, tal relação precisa

ser tematizada por estudos que se dedicam à compreensão da política

educacional, pois, enquanto não são traçadas conclusões mais precisas, tal

relação não pode ser descartada enquanto um dos elementos explicativos do

  11  

sucesso ou fracasso de um determinado programa nem, tampouco, ser tomada

como verdade absoluta.

Heraldo Vianna ensina, por exemplo, que é por meio da avaliação de

um programa, aliada à pesquisa, que será possível desvendar a “rede de

fatores confluentes e que se interpenetram, gerando uma rede de causas, fatos

e efeitos” que interferem na realidade educacional e, portanto, na qualidade em

educação. (VIANNA, 2000:23).

Nesse sentido, Marta Sisson de Castro (s/d) aponta a relação entre a

formação dos professores, em nível superior, e os resultados dos alunos no

PISA: Os resultados do PISA, também constataram “o conjunto de fatores escolares explica 31% da variância na leitura” (PISA, 2002). Ao identificar os fatores escolares que influenciam positivamente o rendimento acadêmico dos alunos, enfatizam que professores qualificados são os recursos escolares mais valiosos. Foi constatada uma associação entre a percentagem de professores que possuía curso superior em sua área de atuação e resultado acadêmico dos alunos., por exemplo uma elevação de 25% no percentual de professores com curso superior em sua área de atuação está associado com um aumento de nove pontos no teste de leitura em média nos países da OECD (Organization for Economic Cooperation and Development). Indicando que a preparação dos professores afeta diretamente o rendimento dos alunos. (CASTRO, s/d. Avaliação do Rendimento Educacional e a Formação de Professores. Disponível em: http://www.sbec.org.br/evt2008/trab28.pdf. Acesso em 28/11/2008) [grifos meus].

Já para Torres, no entanto, a relação direta entre formação do professor

e conhecimento do aluno é questionável. Deve-se considerar, contudo, que ao

mesmo tempo em que faz a ressalva sobre as estreitas relações entre

rendimento do aluno e formação do professor, Torres admite que alguns

estudos defendem essa inter-relação. Nas palavras da autora: Não existe uma relação mecânica entre conhecimento do professor e aprendizagem do aluno ou entre capacitação do professor e rendimento escolar: não se pode esperar que cada ano de estudos, cada curso ou oficina de capacitação resulte imediata e necessariamente em quantidades mensuráveis de aprendizagem (melhorada) por parte do alunado. Esta visão corresponde a uma percepção da educação e da aprendizagem escolar que equipara escola e fábrica e vê o ensino e a aprendizagem à luz do modelo fabril insumo-produto (inputs-outputs). (TORRES, 1998:175)

Distanciando-se da perspectiva de Torres, Brunner (2003), se apóia em

estudo realizado por Fuller e Clarke, para concluir que a atuação docente é um

  12  

aspecto central para a melhoria dos resultados escolares dos alunos. Segundo

o autor, a “qualidade da docência” seria determinada: [...] pelas práticas de ensino do docente na sala de aula, pelo desenvolvimento profissional docente (conhecimento da matéria que ensina e capacidade de ensinar a alunos de diversas origens sócio-familiares) e os insumos (tamanho do curso, formação inicial e experiência do professor). (BRUNNER, 2003:77-78)

Esses são poucos, mas ilustrativos, exemplos da divergência de

posições acerca da relação entre investimento na formação docente e melhoria

do desempenho do aluno. Tais exemplos mostram como é necessário analisar

mais detidamente a questão, levantando informações que permitam um

posicionamento nesta polêmica. No caso específico da análise sobre a

influência do Programa Letra e Vida nos desempenhos de alunos e

professores, a intenção da pesquisadora é buscar informações que possam

contribuir para o avanço na discussão dessa polêmica.

Feitas tais ressalvas, pode-se dizer que a partir das análises iniciais da

autora, que tomam como indício do desempenho discente os resultados

obtidos pelos alunos no SARESP, não é possível afirmar que tais resultados se

alteram pelo oferecimento de cursos para professores. Isso porque não é

possível identificar, nos resultados do SARESP, uma continuidade

metodológica e temporal que permita fazer afirmações fidedignas a esse

respeito.

Implantado a partir de 1996, com periodicidade irregular, o SARESP

(Sistema de Avaliação do Rendimento Escolar de São Paulo) já realizou dez

avaliações nas escolas da rede estadual de São Paulo (Ver Quadro 1), sendo

que em alguns anos houve participação, inclusive, de algumas redes

municipais e escolas particulares.

É importante ressaltar que até 1998 o SARESP se caracterizou como

uma avaliação de entrada: ocorria no início do ano e, portanto, analisava o

trabalho realizado pela série anterior. A partir do ano 2000, passou a ser

realizado no final do ano, tornando-se uma avaliação de saída, ou seja, o foco

da avaliação era o trabalho realizado na série em que o aluno se encontrava.

Além disso, inicialmente, o SARESP era uma avaliação de caráter amostral,

sendo que apenas algumas séries eram avaliadas. Entre 2003 e 2005, passou

a ser censitário, com todas as escolas e séries sendo avaliadas. Já em 2007,

  13  

apenas seis séries foram avaliadas, mas em caráter censitário: 1ª, 2ª, 4ª, 6ª e

8ª séries do EF e a 3ª série do EM da rede pública estadual.

Para o interesse específico da pesquisadora, observa-se que os anos

em que os alunos da 1ª série do Ensino Fundamental foram avaliados foram

2003, 2004, 2005 e 2007. O Programa Letra e Vida foi implantado em 2003, o

que permitiria supor que os resultados de 2004, 2005 e 2007 pudessem sofrer

alterações devido à ação de formação docente.

QUADRO 1: Edições do SARESP e Séries Avaliadas por Edição Séries Ano Ensino Fundamental Ensino Médio 1ª 2ª 3ª 4ª 5ª 6ª 7ª 8ª 1ª 2ª 3ª 1996 1997 1998 2000 2001 2002 2003 2004 2005 2007 Fonte:  Secretaria  da  Educação/  FDE.    

Contudo, não é possível realizar uma análise longitudinal dos resultados

da 1ª série. Em 2003, por exemplo, a análise dos resultados foi realizada de

forma qualitativa, não sendo atribuídas porcentagens médias para os acertos

dos alunos, como mostra o trecho do Relatório do SARESP 2003, destacado

abaixo: Cabe ressaltar que as provas das 1a e 2a séries do Ensino Fundamental foram corrigidas de forma qualitativa, sendo criadas categorias de desempenho, portanto, nessas séries não serão discutidas as porcentagens médias de acertos em cada habilidade, mas a porcentagem de alunos em cada categoria, por tópico de análise. As categorias de classificação das respostas dessas duas séries foram determinadas por especialistas da SEE/SP. (SEE/SP. Relatório do SARESP – 2003)

.Já em 2004, os alunos foram distribuídos em níveis, segundo uma

escala de desempenho:

  14  

QUADRO 2: Níveis da escala de desempenho do SARESP 2003 para a 1ª. série do Ensino Fundamental NÍVEIS  DA  ESCALA  DE  DESEMPENHO  EM  LEITURA  E  ESCRITA  

ENSINO  FUNDAMENTAL  –  CICLO  I  –  1ª  SÉRIE  

NÍVEL DE DESEMPENHO: INSUFICIENTE (de 0 a 9 pontos)

Neste nível os alunos ainda não escrevem com correspondência sonora alfabética.

NÍVEL DE DESEMPENHO: REGULAR (de 10 a 12 pontos)

Neste nível os alunos escrevem com correspondência sonora alfabética.

NÍVEL DE DESEMPENHO: BOM (de 13 a 18 pontos)

Neste nível os alunos escrevem com correspondência sonora alfabética e lêem com autonomia, localizando parcialmente informações no texto.

NÍVEL DE DESEMPENHO: MUITO BOM (de 19 a 20 pontos)

Neste nível os alunos escrevem alfabeticamente com ortografia regular e lêem com autonomia, localizando integralmente informações no texto e sendo capazes de inferir uma informação a partir da leitura.

NÍVEL DE DESEMPENHO: ÓTIMO (de 21 a 24 pontos)

Neste nível os alunos escrevem alfabeticamente com ortografia regular e lêem com autonomia, sendo capazes de inferir uma informação a partir da leitura. Produzem texto com algumas características de linguagem escrita e do gênero proposto (carta).

NÍVEL DE DESEMPENHO: EXCELENTE (25 pontos)

Neste nível os alunos escrevem alfabeticamente com ortografia regular e lêem com autonomia, sendo capazes de inferir uma informação a partir da leitura. Produzem texto com características de linguagem escrita e do gênero proposto(carta).

Fonte: SEE/SP. Disponível em: http://www.educacao.sp.gov.br/noticias_2005/01_02_EF.pdf. Acesso em 21/04/2009.

Observa-se, assim, que a análise manteve-se qualitativa, mas,

diferentemente do ano anterior, associou-se um total de pontos a cada nível de

desempenho. Nesse sentido, observa-se uma alteração no tratamento dos

resultados que dificulta um estudo mais direto entre os resultados das duas

avaliações. Tais análises poderiam ser feitas sobre os resultados qualitativos,

presentes nas duas amostras, mas as mudanças ocorridas nos descritores

qualitativos poderiam levar a alterações. Apesar dessas limitações, à época da

divulgação dos resultados, muitas afirmações foram feitas, no âmbito da

Secretaria de Educação, sobre a melhoria que os investimentos em formação

docente já apontavam, tendo em vista os resultados da avaliação.

Vale ressaltar, ainda, que fica clara a relação entre a prova do SARESP

e os pressupostos teórico-metodológicos divulgados no curso, como atesta o

trecho retirado do site da Secretaria de Educação, à época da inscrição para o

SARESP:

  15  

A avaliação das primeiras séries do Ensino Fundamental está vinculada à existência de professores nas redes municipal e particular que participaram do Programa de Formação de Alfabetizadores (PROFA) ministrado pelo Ministério da Educação ou do Projeto Letra e Vida, em desenvolvimento pela Secretaria da Educação do Estado de São Paulo. Essa decisão se justifica em razão da especificidade da avaliação das 1ª e 2ª séries na rede da SEE que, vinculada aos pressupostos desse Projeto, requer procedimentos específicos para a aplicação e correção de provas. (Fonte: SEE/SP. Condições de adesão da rede municipal e particular. Disponível em: http://saresp.edunet.sp.gov.br/2004/subpages/condi_ad_mu.htm. Acesso em 21/04/2009)

Finalmente, a pesquisadora também perdeu a possibilidade de análise e

utilização dos resultados da 1ª série obtidos em 2005 e 2007, visto que houve

alteração significativa no esquema de pontuação da avaliação, acrescida pelas

mudanças na disposição das categorias qualitativas. Inicialmente, pensou-se

que a utilização dos dados do SARESP 2005 e 2007 propiciaria um estudo de

caráter longitudinal, a partir do qual se buscaria observar tendências de

desempenho dos alunos e escolas cujos professores participaram do programa

analisado.

Contudo, enquanto o SARESP 2005 trabalhou com um escore máximo

de 44 pontos, distribuídos em 8 níveis de escala de desempenho, no SARESP

2007 foram adotados 6 níveis de escala de desempenho, com uma pontuação

máxima de 49 pontos, como mostram os quadros a seguir:

QUADRO 3: Níveis da escala de desempenho em leitura e escrita na 1ª série do EF. SARESP 2005 Nível Pontuação Descrição dos Níveis Abaixo do

nível 1 0-4 Alunos que não demonstram domínio das habilidades avaliadas

pelos itens da prova 1 5-9 Escrevem com correspondência sonora ainda não alfabética 2 10-12 Escrevem com correspondência sonora alfabética 3 13-18 Escrevem com correspondência sonora alfabética e lêem com

autonomia (texto informativo) 4 19-25 Escrevem com ortografia regular 5 26-38 Produzem texto com algumas características de linguagem escrita

e do gênero proposto (conto) 6 39-40 Produzem texto com características de linguagem escrita e do

gênero proposto (conto) 7 41-44 Produzem texto com características de linguagem escrita e do

gênero proposto (texto informativo), a partir de situação de leitura autônoma e de texto de outro gênero.

Fonte: FDE. Sumário Executivo do SARESP 2005.

  16  

QUADRO 4: Níveis da escala de desempenho em leitura e escrita na 1ª série do EF. SARESP 2007 Nível Pontuação Descrição dos Níveis

1 0-3 Os alunos escrevem sem correspondência Sonora 2 4-8 Os alunos escrevem com correspondência sonora ainda não alfabética. 3 9-16 Os alunos escrevem com correspondência sonora alfabética. 4 17-25 Os alunos escrevem com correspondência sonora alfabética e produzem texto

com algumas características da linguagem escrita e do gênero proposto (carta). 5 26-37 Os alunos escrevem com ortografia regular; produzem texto com características

da linguagem escrita e do gênero proposto (carta); e, localizam, na leitura, informações explícitas contidas no texto informativo.

6 38-49 Os alunos escrevem com ortografia regular; produzem texto com características da linguagem escrita e do gênero proposto (carta); localizam informações explícitas; e fazem inferência de informações a partir de um texto lido (texto informativo).

FONTE: Sumário Executivo do SARESP 2007. Disponível em http:www.educacao.sp.gov.br/saresp

Observa-se que a própria distribuição dos alunos nos níveis, feita pela

Secretaria de Educação e seus assessores, parece deficitária já que os níveis

são distintos e definidos a partir de número de pontos variáveis.

Em um exercício de reflexão, visando encontrar pontos em comum entre

os grupos que foram avaliados em 2005 e 2007, tentou-se considerar os alunos

com pontuação igual ou maior que 75% e, para complemento do estudo,

aqueles que atingiram menos de 25% da pontuação possível. No caso de

2005, esses alunos eram aqueles que tiveram escores menores que 11 pontos

e maiores do que 33 pontos. Já no caso dos alunos avaliados em 2007, foram

considerados os que obtiveram pontos acima de 36,75 e abaixo de 12,25.

Partindo desse estudo inicial, não foi possível observarar alterações entre os

resultados de desempenho de alunos cujos professores participaram do curso

de formação em alfabetização, que é objeto de estudo. Pode-se afirmar, assim,

que os resultados não permitiram chegar a conclusões sólidas que

evidenciassem impactos do curso sobre o desempenho discente, ao contrário

do que se propagandeou à época.

É claro que isso não significa que o Programa de Formação é inválido,

visto que ele pode atingir seus objetivos enquanto formação de professores.

Contudo, do ponto de vista quantitativo a formação não pareceu repercutir em

diferenças significativas no aprendizado dos alunos. Tal descoberta reforçou a

necessidade de investigar a prática docente dos professores que fizeram o

  17  

curso, a fim de analisar em que medida essa prática é influenciada pelos

pressupostos aprendidos durante a atividade de formação continuada.

Outro fator que influenciou o delineamento inicial de análise proposta foi

a dificuldade de obtenção de informações sobre o nível sócio-econômico da

escola, já que esse tipo de informação nem sempre é incorporado aos

questionários que acompanham as avaliações sistêmicas. Uma forma de

estabelecimento do nível sócio-econômico da escola seria obter dados sobre a

população que ela atende e, então, generalizá-los para a instituição. Nesse

sentido, apresenta-se um dificultador: os alunos de Ciclo 1 do Ensino

Fundamental não estão aptos a responder questões de nível sócio-econômico,

fator pelo qual os organizadores do SARESP começam a colher estes dados

apenas entre os alunos de 4ª série em diante.

Como alternativa, tentar-se-á, a partir das respostas dos alunos de 4ª

série, traçar o perfil sócio-econômico da escola, tendo como pressuposto que a

população de atendimento do entorno escolar é a mesma, estando os alunos

no 1º ano da escolaridade ou no 4º. Sobre a informação disponível cabe ainda

acrescentar que serão utilizados os dados da FDE, baseados em uma

adaptação do Critério Brasil, que incorporam a escolaridade da mãe e a posse

de bens de conforto, mas não questões específicas sobre renda.

Além disso, desde o início do projeto, a pesquisadora intentava verificar

se haveria diferenças substanciais entre o desempenho de alunos de

professores que cursaram o Programa Letra e Vida e o desempenho de alunos

cujos professores não participaram do curso. Para estabelecer essa relação,

seriam utilizadas as respostas dos professores no questionário que

acompanhou o SARESP de 2007. Nesse questionário haviam sido incluídas, a

pedido da Equipe do “Letra e Vida”, questões que permitissem identificar

professores que participaram do Programa, informação que poderia ser útil

para uma avaliação de impacto daquele programa de formação.

A idéia inicial, segundo a supervisora do Programa, professora Telma

Weisz, era identificar professores formados pelo “Letra e Vida” e cruzar essa

informação com os resultados obtidos pelos alunos desses professores.

Contudo, durante a aplicação do SARESP, houve uma troca de professores

aplicadores entre escolas, com exceção dos professores das duas séries

iniciais do ensino fundamental. Nesse caso (1ª e 2ª séries), os professores que

  18  

aplicaram a avaliação foram os professores da própria escola, trocando, porém,

as turmas. Isso fez com que os questionários dos professores de 1ª e 2ª séries

não fossem respondidos pelos responsáveis por cada turma, perdendo-se a

possibilidade de cruzar os dados obtidos pelos respondentes que fizeram o

Letra e Vida com os percentuais de rendimento dos alunos, que seria uma

fonte importante de informação para a análise do impacto do programa.

Finalmente, cabe destacar que a proposta inicial de análise de

possíveis impactos do Programa Letra e Vida contemplava o acompanhamento

de um grupo de professores que foram cursistas do programa, comparando os

resultados dos seus alunos com os de alunos de professores que não se

submeteram a ele. Tal abordagem, contudo, foi dificultada porque ocorreram

inúmeras remoções de professores ao longo do ano, o que não garante que, ao

chegar na escola, a pesquisadora tenha acesso ao mesmo grupo que já estava

Essas três dificuldades permitem chegar a duas conclusões principais.

Primeiramente, percebe-se que a própria natureza do sistema educacional de

São Paulo dificulta uma análise de resultados baseada em uma metodologia

que exige o controle de variáveis e, portanto, a manutenção de algumas

estruturas propostas inicialmente. Programas que mudam constantemente,

informações que não são “controladas” pelos aplicadores do SARESP (e que

poderiam ser úteis à gestão do sistema), desafios técnicos e metodológicos

para manutenção da unicidade nas propostas e equivalência de resultados,

constituem parte dos aspectos que devem ser considerados se o objetivo é o

desenvolvimento de análises mais aprofundadas e sustentáveis, com validade

conceitual.

Em segundo lugar, chama a atenção a postura da Secretaria da

Educação, que facilmente poderia imprimir mudanças no sentido de propiciar

condições mais favoráveis para o desenvolvimento das pesquisas em

Educação e para o aprimoramento da reflexão teórica sobre as análises de

resultados referente ao sistema educacional.

Paralelamente, observa-se que as mesmas dificuldades enfrentadas

pelo pesquisador devem se impor, de alguma maneira, ao pessoal técnico da

Secretaria. De qualquer forma, um maior cuidado na organização das

avaliações e no tratamento de dados sobre professores poderia ser decisivo

para ajudar no desenvolvimento de uma proposta de avaliação de impacto.

  19  

Contudo, são essas mesmas dificuldades que fazem com que seja necessária

a realização de estudos como o que está sendo proposto neste projeto, a fim

de contribuir para o acúmulo de conhecimentos na área de avaliação de

impacto de programas sociais que deve ser focalizada nos próximos anos,

tendo em vista as características que a gestão de programas sociais e

educacionais vêm assumindo nos últimos anos.

BIBLIOGRAFIA

AFONSO, Almerindo. Políticas educativas e avaliação educacional. Portugal: Universidade de Minho, 1998.

ANDRÉ, Marli. “Avaliação revela impacto de um programa de formação de professores”. Revista Ensaio: avaliação de políticas públicas educacionais. Rio de Janeiro: Fundação Cesgranrio, v. 16, n.58, p. 149-168, jan./mar. 2008.

BAKKE, Lianete L. M. B. O discurso e a prática pedagógica do professor alfabetizador. Mestrado. João Pessoa: Universidade Federal da Paraíba. Orientador: Maria Ester Vieira de Sousa. 2006.

BARRETTO, Elba Siqueira de Sá; PINTO, Regina Pahim (Coord.). Avaliação na educação básica (1990-1998). Brasília: MEC/Inep/Comped, 2001. Série Estado do Conhecimento, n. 4.

BOMENY, Helena (org.) Avaliação e determinação de padrões na educação latino-americana: realidades e desafios. São Paulo:FGV Editora, 1997.

FLETCHER, Philip. Propósitos da avaliação educacional: uma análise das alternativas. Estudos em Avaliação Educacional. São Paulo, n.º 11, p. 93-112, jan.-jun., 1995.

FRANCO, Creso. Quais as contribuições da avaliação para as políticas educacionais. FRANCO, Creso; BONAMINO, Alicia; BESSA, Nicia (Org.). Avaliação da educação básica: pesquisa e gestão. Rio de Janeiro: Ed. PUC-Rio : São Paulo: Loyola, 2004. p. 45-63.

LOPEZ-ACEVEDO, Gladys. Professional Development and Incentives for Teacher Performance in Schools in Mexico. The World Bank: Reports and Publicashions, Published in 04/03/2004. Disponível em: http://www-wds.worldbank.org. Acesso em 15/11/2008.

LAVILLE, Cristian e DIONNE, Jean. Em busca de informações. A construção do saber – Manual de Metodologia de Pesquisa em Ciências Humana. Porto Alegre: Editora Artmed e UFMG, 1999.

MILLS, Charles Wright. Do artesanato intelectual. A imaginação sociológica. Rio de Janeiro: Zahar, 1965, p: 211-244.

  20  

NATIONAL SCIENCE FOUNDATION. An overview of quantitative and qualitative data collection methods. Disponível em: http://www.nsf.gov. Acesso em 15/09/2007.

PIATTI, Célia Beatriz. Formação continuada: reflexos na prática dos professores participantes do Programa de Formação de Professores Alfabetizadores – PROFA. Mestrado. Universidade Católica Dom Bosco. Orientador: Leny R. M. Teixeira. 2006.

ROSSI, Peter e FREEMAN, Howard. Monitoreo del programa para su evaluación. Evaluación: un enfoque sistemático para os programas sociais. México: Editorial Trillas, 1989.

SÃO PAULO (Secretaria Estadual de Educação). Política Educacional da Secretaria da Educação do Estado de São Paulo, 2003. Disponível em: www.crmariocovas.sp.gov.br/pdf/ors/PoliticaSEE.pdf. Acesso em 20/04/2009.

SEVERINO, Antônio J. Metodologia do trabalho científico. São Paulo: Cortez Editora, 2001.

SOARES, José Francisco. Melhoria do desempenho cognitivo dos alunos do ensino fundamental. Cadernos de Pesquisa. São Paulo: FCC, 2007, vol. 37, no. 130, p: 135-160. Disponível em: http://www.scielo.br/scielo.php. ISSN 0100-1574. [Acesso em 22/11/ 2008].

SOUSA, Sandra M. Zákia Lian et al. Avaliação educacional e gestão: iniciativas no âmbito do Município e do Estado de São Paulo. Anuário do GT Estado e Política Educacional. Política, gestão e financiamento da educação. São Paulo: Anped, 2000. p. 429-435.

TORRES, Rosa Maria. Tendências da formação docente nos anos 90. Warde, M. (org.). Novas políticas educacionais: críticas e perspectivas. São Paulo: PUC, 1998, p. 173-191.

VERDUG, Evert. Public Policy and Program Evaluation. New Jersey: Transaction Publishers, 2008.

VIANNA, Heraldo. Fundamentos de um programa de avaliação educacional. Brasília: Liber Livro Editora, 2005.

WORTHEN, Blaine, SANDERS, James e FITZPATRICK, Jody. Avaliação de Programas: concepções e práticas. São Paulo: EDUSP/ Editora Gente, 2004.