Análise Envoltória de Dados – Introdução

Mensurar a eficiência operacional de uma indústria não é uma tarefa fácil! É necessário que você conheça quais os valores precisos de inputs e outputs utilizados/produzidos e, claro, o peso que cada um exerce sobre o resultado (preço de mercado).

Para calcular a eficiência final, portanto, você terá de dividir a soma ponderada dos outputs pela soma ponderada dos inputs e comparar o resultado com um valor padrão. Este padrão, geralmente, é um valor pré-calculado do quanto poderia ter sido produzido com aquela quantidade de recursos em condições ótimas de funcionamento, estabelecendo desta forma, uma relação funcional entre a quantidade de recursos e produtos. Estes modelos são conhecidos como modelos paramétricos.

Todavia, como calcular a eficiência operacional de sistemas onde seja impossível estabelecer o preço de mercado dos inputs e outputs? Daí reside toda a dificuldade…

O primeiro a se deparar (ou a resolver) este problema foi o então doutorando americano Edward Rhodes, que pesquisava a eficiência de um programa de acompanhamento de crianças carentes implantado em algumas escolas. A ideia era comparar a eficiência educacional destas escolas com as que não haviam aderido ao programa. Todavia, Rhodes não queria arbitrar pesos às variáveis, o que poderia gerar vieses e inexatidão nos resultados.

Rhodes, ao estudar sobre mensuração de eficiência, deparou-se com o artigo de Farrel (1957), que estabelecia os pressupostos básicos para o cálculo de eficiência.

Baseados neste artigo, Abraham Charnes (1917-1992) e Willian Cooper (1914 a 2012), orientadores de Rhodes, propuseram uma metodologia que calculava a eficiência das unidades, no caso escolas, ou genericamente DMU (decison making units) de forma comparativa, onde o peso que cada variável exercia sobre o resultado era calculado por programação linear.

Desta forma, os pesos eram calculados de forma a maximizar a eficiência de cada DMU. Uma DMU que houvesse sido ineficiente nesta configuração, seria ainda mais ineficiente em qualquer outra.

A unidade mais produtiva era colocada como benchmark para as demais, sendo lhe atribuída a eficiência máxima (100% ou 1). Às demais unidades era atribuída a eficiência relativa ao percentual da produtividade atingida quando comparada com a DMU benchmark.

Este modelo considerava retornos constantes de escala, onde a eficiência era demonstrada graficamente por uma reta partindo da origem, conforme mostra o gráfico abaixo.

Resultado de imagem para ccr dea graphic

Fonte: Open Source DEA

Neste exemplo, apenas a DMU E é eficiente, as demais são ineficientes.

Neste modelo, conhecido como CCR em homenagem aos seus criadores (Charnes, Cooper e Rhodes), uma redução nos inputs de uma unidade considerada eficiente, exige uma redução proporcional nos outputs para que continue eficiente e virse e versa. Esta característica é conhecida como axioma da proporcionalidade.

O modelo CCR é conhecido também como CRS (Constant Return to Scale).

Mas, como na prática a maioria dos sistemas organizacionais possuem retornos variáveis de escala, não demorou muito Charnes e Cooper com o auxílio de Banker, criaram o modelo BCC, que considerava retornos variáveis de escala. O modelo recebeu este nome em homenagem a seus criadores, sendo conhecido também como modelo VRS (Variable Return to Scale). Neste modelo, o axioma da proporcionalidade foi substituído pelo axioma da convexidade, como será melhor definido nos próximos posts sobre o assunto.

Esta técnica, por desconsiderar o impacto que  a escala exerce na eficiência, é capaz de computar como eficiente DMUs de diferentes portes, conforme demonstra o gráfico abaixo.

 

Fonte: Open Source DEA

Após a técnica BCC, diversos outros métodos DEA foram criados e serão tratados nos próximos posts.

Não deixe de acompanhar os próximos artigos!

Cite este trabalho:

BARBOSA, F.C. Análise Envoltória de Dados – Introdução. Disponível em: <https://conhecimentolivre.org/analise-envoltoria-de-dados/>. Acesso em: xx de xxxx de 20xx.