Métodos quantitativos de gestão de negócios
Projeto de pesquisa: Métodos quantitativos de gestão de negócios. Pesquise 861.000+ trabalhos acadêmicosPor: • 3/5/2014 • Projeto de pesquisa • 6.457 Palavras (26 Páginas) • 427 Visualizações
SUMÁRIO
INTRODUÇÃO 3
DESENVOLVIMENTO 4
1-Microeconomia e Macroeconomia------------------------------------------------------------4
1-1 Inflação-------------------------------------------------------------------------------4
1-2 Taxa de Juros----------------------------------------------------------------------8
1-3 Taxa de Cambio-------------------------------------------------------------------9
2- Métodos Quantitativos na Gestão Empresarial------------------------11
2-1 Medidas Descritivas-----------------------------------------------------------11
2-1-1 Medidas de Tendência Central------------------------------------------11
2-1-2 Medidas de Dispersão------------------------------------------------------14
2-1-3 Técnicas de Amostragem Probabilística-----------------------------15
2-2 Números-Índices----------------------------------------------------------------20
2-3 Deflação de Dados-------------------------------------------------------------21
3- Ética Política e Sociedade----------------------------------------------------22.
Conclusão------------------------------------------------------------------------------23
Referências----------------------------------------------------------------------------24
INTRODUÇÃO
A Economia é um campo de conhecimentos especializados cujo interesse é a análise e previsão das atividades sociais relacionadas à produção e distribuição de produtos e serviços. Um fator que exerce influência significativa nos estudos econômicos é a complexidade, isto é a interdependência entre os diferentes elementos que permeiam e estruturam a sociedade: concepções culturais e políticas das pessoas, a divisão social do trabalho, as ações governamentais, os mercados internacionais etc.
Juntamente com a ética politica e sociedade ajudando a ter um grande desenvolvimento da emprejas.
DESENVOLVIMENTO
1-Microeconomia e Macroeconomia
1-1 Inflação é a queda do valor de mercado ou poder de compra do dinheiro. Porém, é popularmente usada para se referir ao aumento geral dos preços. Inflação é o oposto de deflação. Índices de preços dentro de uma faixa entre 2 a 4,5% ao ano é uma situação chamada de estabilidade de preços. Inflação "zero" não é o que se deseja, pois pode estar denunciando a ocorrência de uma estagnação da economia, momento em que a renda e, consequentemente, a demanda, estão muito baixas, significando alto desemprego e crise.
Histórico do Quadro Inflacionário no Brasil
Os índices de inflação no Brasil são medidos de diversas maneiras. Duas formas de medir a inflação ao consumir são o INPC, aplicado a famílias de baixa renda (aquelas que tenham renda de um a seis salários mínimos) e o IPCA, aplicado para famílias que recebem um montante de até quarenta salários mínimos.
Até 1994 a economia brasileira sofreu com inflação alta, entrando num processo de hiperinflação na década de 80. Esse processo só foi interrompido em 1994, com a criação do Plano Real e a mudança da moeda para o real (R$), atual moeda do país. Atualmente a inflação é controlada pelo Banco Central através da política monetária que segue o regime de metas de inflação.
Índices da inflação (IBGE)
Gráfica inflação no Brasil entre 1930 e 2005
• Década de 1930 = média anual de 6,1%;
• Década de 1940 = média anual de 12,3%;
• Década de 1950 = 19,5%
• Décadas de 1960 e 1970 = 40,1%
• Década de 1980 = 330%
o Nota = Entre 1985 e 1994 as taxas da inflação no Brasil foram altas.
• Entre 1990 a 1994 =média anual de 764%
• Entre 1995 a 2000 = média anual de 8,6
• Metas de Inflação
Desde 1999, o Brasil está sob o regime de metas de inflação para orientar sua política monetária. Desta forma, a oferta de moeda pelo Banco Central segue uma estratégia para atingir uma banda de inflação determinada pelo Conselho Monetário Nacional.
Especificamente, temos o seguinte quadro inflacionário pelo IPCA cheio, no período 1999-2012 :
• 1999 = 9,52% (Teto da meta de 10%)
• 2000 = 6,59% (Teto da meta de 8%)
• 2001 = 8,23% (Teto da meta de 6%)
• 2002 = 12,53% (Teto da meta de 5,5%)
• 2003 = 9,3% (Teto da meta de 5,25%)
• 2004 = 7,6% (Teto da meta de 8%)
• 2005 = 5,69% (Teto da meta de 7%)
• 2006 = 3,14% (Teto da meta de 6,5%)
• 2007 = 4,46% (Teto da meta de 6,5%)
• 2008 = 5,90% (Teto da meta de 6,5%)
• 2009 = 4,31% (Teto da meta de 6,5%)
• 2010 = 5,91% (Teto da meta de 6,5%)
• 2011 =6,50% (Teto da meta de 6,5%)
• 2012 = 5,84% (Teto da meta de 6,5%)
Processos inflacionários
Os processos inflacionários podem ser classificados, segundo algumas características como:
• Inflação prematura - processo inflacionário gerado pelo aumento dos preços sem que o pleno emprego seja atendido.
• Inflação reprimida - processo inflacionário gerado pelo congelamento dos preços por parte do governo.
• Inflação de custo - processo inflacionário gerado pelo aumento dos custos de produção.
Por causa de uma redução na oferta de fatores de produção, o seu preço aumenta. Com o custo dos fatores de produção mais altos, a produção se reduz e ocorre uma redução na oferta dos bens de consumo aumentando seu preço. A inflação de custo ocorre quando a produção se reduz.
• Inflação de demanda - processo inflacionário gerado pelo aumento do consumo com a economia em pleno emprego. Ou seja, os preços sobem por que há aumento geral da demanda sem um acompanhamento no crescimento da oferta.
Esse tipo de inflação é causado também pela emissão elevada de moeda e aumento nos níveis de investimento, pois, passa a haver muito dinheiro à cata de poucas mercadorias. Uma das formas utilizadas para o controle de uma crise de inflação de demanda é um redução na oferta de moeda, que gera uma redução no crédito, e consequente desaceleração econômica. Alternativas são os aumentos de tributos, elevação da taxa de juros e das restrições de crédito.
Há ainda aqueles que discutem a chamada inflação (por razão) estrutural, proposta pela CEPAL, que tem a ver com alguma questão especifica de um determinado mercado, como pressão de sindicatos, tabelamento de preços acima do valor de mercado (caso do salário mínimo), imperfeições técnicas no mecanismo de compra e venda.
Outro tipo de inflação, também muito danoso, é a Inflação inercial, onde há um círculo vicioso de elevação de preços, taxas e contratos, com base em índices de inflação passados. Quase na mesma linha, podemos citar ainda a Inflação de Expectativas, consequência de um aumento de preços provocados pelas projeções dos agentes sobre a inflação.
Distorções
A inflação é responsável por diversas distorções na economia. As principais distorções acontecem na Distribuição de Renda (já que assalariados não tem a mesma capacidade de repassar os aumentos de seus custos, como fazem empresários e governos, ficando seus orçamentos cada vez mais reduzidos até a chegada do reajuste), na Balança de Pagamentos (inflação interna maior que a externa causa encarecimento do produto nacional com relação ao importado o que provoca aumento nas importações e redução nas exportações), na Formação de Expectativas (diante da imprevisibilidade da economia, o empresariado reduz seus investimentos), no Mercado de Capitais (causa migração de aplicações monetárias) para aplicações em bens de raiz (terra, imóveis), e também a chamada Ilusão Monetária, que seria a interpretação errada da relação de ajuste do salário nominal com o salário real, por definição e que gera por sua vez a percepção errada de maior renda e consequentemente decisões equivocadas. As pessoas, julgando-se mais ricas, demandam mais bens e serviços e, com oferta a pleno emprego, causa dessa forma à inflação.
Por exemplo, ´´Que Em 12 meses, o índice acumulou alta de 4,47%, ante 3,98% nos 12 meses até agosto.
O Índice Geral de Preços-Disponibilidade Interna (IGP-DI) subiu 1,36% em setembro, ante-elevação de 0,46% no mês anterior, puxado pelos preços de matérias-primas informou a Fundação Getúlio Vargas (FGV), nesta terça-feira.
O número ficou levemente abaixo do esperado pelo mercado. Levantamento da Reuters mostrou que, pela mediana de 21 projeções, o indicador ficaria em 1,45% no mês passado, com as projeções variando de 1,2% a 1,6%. Em 12 meses, o índice acumulou alta de 4,47%, ante 3,98% nos 12 meses até agosto.
Em setembro, o Índice de Preços ao Produtor Amplo (IPA-DI) subiu 1,9%, após alta de 0,58% em agosto. O índice calcula as variações de preços de bens agropecuários e industriais nas transações em nível de produtor e responde por 60 por cento do IGP-DI.
Por sua vez, o Índice de Preços ao Consumidor (IPC-DI), registrou alta de 0,30 por cento, ante avanço de 0,20 por cento no mês anterior. O índice mede a evolução dos preços às famílias com renda entre um e 30 salários mínimos mensais e corresponde a 30 por cento do IGP-DI.
Já o Índice Nacional de Custo da Construção (INCC-DI) avançou 0,43% em setembro, após alta de 0,31% em agosto. O índice representa 10% do IGP-DI. O IGP-DI é usado como referência para correções de preços e valores contratuais. Também é diretamente empregado no cálculo do Produto Interno Bruto (PIB) e das contas nacionais em geral.
A principal preocupação atualmente em relação à inflação é o impacto da recente valorização do dólar sobre os preços. Isso levou o Banco Central (BC) a adotar um programa de leilões cambiais diários para impedir maior turbulência nesse mercado.
Na ata da reunião em que elevou a taxa básica de juros (Selic) para 9%, o Comitê de Política Monetária (Copom) do BC mostrou estar atento à alta do dólar e afirmou que a política monetária deve ser usada para conter os efeitos desse movimento sobre os preços. Nesta quarta-feira, o Copom se reúne novamente e, segundo grande parte do mercado, deve manter o ritmo de alta da taxa básica de juros e elevá-la para 9,5% ao ano. ``
1-2 Taxas de juros
Juro é a remuneração cobrada pelo empréstimo de dinheiro. É expresso como um percentual sobre o valor emprestado (taxa de juro) e pode ser calculado de duas formas: juros simples ou juros compostos.
O juro pode ser compreendido como uma espécie de "aluguel sobre o dinheiro". A taxa seria uma compensação paga pelo tomador do empréstimo para ter o direito de usar o dinheiro até o dia do pagamento. O credor, por outro lado, recebe uma compensação por não poder usar esse dinheiro até o dia do pagamento e por correr o risco de não receber o dinheiro de volta (risco de inadimplência).
A taxa básica de juros corresponde à menor taxa de juros vigente em uma economia, funcionando como taxa de referência para todos os contratos. É também a taxa a que um banco empresta a outros bancos.
No Brasil, a taxa de juros básica é a taxa SELIC, que é definida pelo Comitê de Política Monetária (COPOM) do Banco Central, e corresponde à taxa de juros vigente no mercado interbancário, ou seja, é a taxa aplicada aos empréstimos entre bancos para operações de um dia (overnight) - operações estas lastreadas por títulos públicos federais. A taxa básica de juros, estabelecida pelo governo, através do Banco Central, para remunerar os títulos da dívida pública, é um importante instrumento de política monetária e fiscal. Em 20 de julho de 2011 a taxa básica de juros se elevou pela quinta vez seguida alcançando a marca de 12,5 pontos percentuais. O maior desde janeiro de 2009. Ao elevar a Selic, o objetivo do BC é fazer com que o custo do crediário também suba e, com isso, diminua o consumo da população para conter a alta da inflação.
De forma análoga, nos Estados Unidos, a taxa básica de juros é fixada pelo Comitê Federal de Mercado Aberto do Fed. (o sistema de bancos centrais dos EUA), com base na remuneração dos Federais Fundos, que são os títulos que lastreiam empréstimos interbancários overnight, que têm como finalidade a manutenção do nível das reservas bancárias depositadas no banco central.
Por exemplo, ´´ O Comitê de Política Monetária (Copom) do Banco Central (BC) inicia nesta terça-feira (8) à tarde a penúltima reunião do ano para discutir se mantém o processo de ajuste da política monetária, iniciado em abril, quando a taxa básica de juros (Selic) estava em 7,25% ao ano - o nível mais baixo desde que o colegiado de diretores do BC foi criado, em junho de 1996.
Os registros inflacionários nos primeiros meses do ano foram determinantes, porém, para que o Copom elevasse a Selic, já naquele mês, para 7,5%. De lá para cá, foram mais três reuniões, com aumentos de 0,5 pontos percentual cada uma, elevando a taxa para os atuais 9%. De acordo com expectativas dos analistas financeiros, manifestadas no boletim Focus divulgado ontem (7) pelo BC, o Copom deve ajustar a taxa em mais 0,5 pontos percentual, amanhã (9).
O professor de economia da Universidade Mackenzie, Pedro Raffy Vartanian, acha que além do reajuste para 9,5%, agora o ciclo de altas da taxa Selic pode se prolongar por mais duas reuniões do Copom (dias 26 e 27 de novembro e dias 7 e 8 de janeiro de 2014).
Segundo ele, a projeção se justifica porque o impacto da taxa de câmbio na inflação deve se intensificar nos preços de produtos importados, em novembro e dezembro. Além disso, 'o próprio fato de a atividade econômica se mostrar relativamente mais aquecida do que o esperado, deve aumentar os repasses de custos para os preços'.
As reuniões do Copom ocorrem em intervalos de 45 dias, sempre em duas etapas, para fixar a taxa média dos financiamentos diários dos títulos federais, depositados no Sistema Especial de Liquidação e Custódia (Selic). Por extensão, a taxa básica de juros é conhecida também como taxa Selic.
Na primeira parte da reunião, às terças-feiras, os chefes de departamento do BC apresentam análises da conjuntura doméstica sobre as variáveis macroeconômicas, com foco na avaliação prospectiva das tendências de inflação. Na segunda parte da reunião, às quartas-feiras, os diretores de Política Monetária e de Política Econômica apresentam alternativas de taxa de juros de curto prazo para deliberação dos demais diretores. Só o colegiado de diretores tem direito a voto. ``
1-3 Taxa de Cambio
É o preço de uma unidade monetária de uma moeda em unidades monetárias de outra moeda.
A taxa de câmbio pode ser definida em termos diretos (ao incerto) ou em termos indiretos (ao certo). A taxa de câmbio está definida em termos diretos quando exprime o preço de uma unidade monetária estrangeira em unidades monetárias de moeda nacional (exemplo: a taxa de câmbio USD/EUR está definida de forma direta para os habitantes da zona euro; ou está definida de forma indireta para os habitantes dos EUA).
A taxa de câmbio está definida de forma indireta quando exprime o preço de uma unidade monetária de moeda nacional em unidades monetárias de moeda estrangeira (exemplo: taxa de câmbio EUR/USD está definida em termos indiretos para os habitantes da zona euro, pois exprime o preço de 1 unidade monetária nacional, o euro, em unidades monetárias de moeda estrangeira, o dólar).
A taxa de câmbio reflete, assim, o custo de uma moeda em relação à outra, dividindo-se em taxa de venda e taxa de compra. Pensando sempre do ponto de vista do banco (ou outro agente autorizado a operar pelo Banco Central), a taxa de venda é o preço que o banco cobra para vender a moeda estrangeira (a um importador, por exemplo), enquanto a taxa de compra reflete o preço que o banco aceita pagar pela moeda estrangeira que lhe é ofertada (por um exportador, por exemplo).
Portanto, o câmbio é uma das variáveis mais importantes da macroeconomia, sobretudo no que se refere ao comércio internacional. Quando se deseja negociar ativos de um país para outro, quase invariavelmente temos de mudar a unidade de conta do valor desses ativos – da moeda doméstica para a moeda estrangeira. Nesse sentido, pode-se definir a taxa de câmbio de um país como o número de unidades de moeda de um país necessário para se comprar uma unidade de moeda de outro país. Em outras palavras, é o preço de uma moeda em termos de outra.
Por exemplo, ´´ O índice de otimismo entre os diretores financeiros (CFOs) das empresas brasileiras neste trimestre é o mais baixo desde que passou a ser calculado, em 2012. A taxa de câmbio, o código tributário e as políticas governamentais preocupam as empresas do País.
Internamente, as dificuldades estão em manter as margens, gerenciar o capital de giro e contratar e preservar funcionários qualificados. A quinta edição da pesquisa trimestral Panorama Global dos Negócios, conduzida pela Duke University, Fundação Getúlio Vargas e CFO Magazine com o apoio da Bmfbovespa e do Instituto Brasileiro de Executivos de Finanças (IBEF) mostra os diretores financeiros brasileiros entre os mais pessimistas da América Latina.
Os CFOs preveem uma queda no crescimento das receitas e dos lucros: se anteriormente esperavam um aumento anual de 14,9% nas receitas, agora preveem 7,8%; já a subida dos lucros passou a ser de 14,4% (antes era de 19,7%). A pesquisa ainda apontou uma tendência de aumento do emprego temporário. Por outro lado, os salários podem crescer 8%.
De maneira geral, as empresas nacionais estão mais pessimistas com a economia que o resto do mundo. Se comparado ao trimestre anterior, 71% dos diretores financeiros estão menos otimistas e só 8% mais otimistas. O Brasil tem resultado inferior ao dos europeus e estão bem atrás dos demais países latino-americanos, que lideram no quesito otimismo. De 0 a 100, os CFOs do Brasil dão nota 54,7 para o seu otimismo com relação à economia nacional. Nos quatro trimestres anteriores, o índice não baixou de 60,1, o que se afina com a maior parte dos países da América Latina - os mais otimistas atrás da China. A nota dada pelos Estados Unidos é 58,2, enquanto a Europa avalia com 55,7, os asiáticos com 54,3 e os africanos com 52,8.
Professor de finanças da Fundação Getúlio Vargas e codiretor da pesquisa, Gledson de Carvalho vê problemas característicos da economia brasileira, que podem contribuir para o resultado do levantamento. A taxa de crescimento do País vem sendo constantemente revisada para baixo, enquanto Chile, Peru e Colômbia crescem. “Eles não têm os problemas que o Brasil tem. Nós temos problemas estruturais que dificultam o crescimento do País. Não investimos em infraestrutura há muito tempo, e isso freia a economia. Quando a gente imagina que vai crescer, um gargalo trava isso”. A preocupação das empresas com o código tributário também é quase que exclusividade brasileira e apareceu em todas as edições da pesquisa.
A pesquisa indica ainda que 80% das empresas brasileiras de grande porte obtiveram financiamento de longo prazo nos últimos três anos, sendo 81% destes em reais e 26% em moeda estrangeira.
Apreensão
Carvalho ressalta que o estudo é interessante por apresentar a visão dos CFOs, aqueles que teriam a melhor informação sobre o desempenho futuro das empresas. “É impossível contratar e investir sem a participação do setor financeiro. Eles têm informações sobre o que vai acontecer com a empresa antes de todos”, diz.
Logo, é preocupante que os diretores financeiros estejam menos otimistas, acredita. Pode ser difícil dizer a que se deve esta queda, mas é provável que o desempenho projetado para as empresas esteja abaixo do esperado. Carvalho já enxerga indicadores que podem condizer com a realidade projetada pelos CFOs. A baixa demanda do mercado publicitário - mesmo durante o final do ano, quando normalmente há uma intensificação - aponta para cortes na área, que geralmente é a primeira a sofrer com crises, afirma.
Mesmo assim, Carvalho acha exagero falar em crise econômica. Há um período de apreensão quanto ao que deve acontecer nos próximos meses. “O fato de os CFOs não estarem otimistas reflete algo a que não estamos assistindo. Você freia porque você vê um mau sinal”.
Concluído no dia 5 de setembro, o levantamento teve a participação de 1212 CFOs do mundo, sendo 90 brasileiros. ``
2 Métodos quantitativos aplicados na gestão empresarial
2-1 Medidas descritivas
2-1-1 Medidas de Tendência Central
As medidas de tendência central são utilizadas para caracterizar um conjunto de valores, representando-o adequadamente. A denominação “medida de tendência central”, que você viu no título dessa postagem, se deve ao fato de que, por ser uma medida que caracteriza um conjunto, tenderá a estar no meio dos valores. Além da média aritmética, iremos aprender, nessa publicação, também sobre a mediana e a moda.
MÉDIA ARITMÉTICA
Dada a sequência 1, 2, 3, 4, 5, como determinar a sua média aritmética? A média aritmética é obtida somando-se todos os números dessa sequência e dividindo pela quantidade de números que a sequência possui, que são 5 números, ou seja:
Se considerarmos um conjunto de valores x1, x2, x3, ..., xn. A média aritmética dos valores desse conjunto é dada por:
MODA
O termo “moda” foi utilizado pela primeira vez em 1895 por Karl Pearson (1857-1936), possivelmente em referência ao seu significado usual. Embora a palavra “moda” possa estar relacionada a desfiles e roupas em geral, em um sentido mais amplo, significa uma ação, uma atitude ou um pensamento que é mais praticado ou frequente.
Para ilustrar esse amplo conceito, iremos supor um exemplo, onde foi feita uma pesquisa sobre a preferência de um grupo de alunos em relação ao curso superior que desejariam cursar ao passar no vestibular, veja:
Existe algum curso superior mais citado?
A resposta é sim, existe um curso mais citado. Esse curso mais citado foi o de Engenharia (citado duas vezes), os demais foram citados apenas uma vez. Por isso, a opção “Engenharia” é a moda desse conjunto, o valor dominante ou valor típico nesse grupo. De acordo com o conceito podemos deduzir que a moda é sempre o valor mais frequente em um conjunto de dados.
Observe alguns exemplos:
Exemplo 1: A moda do conjunto é igual a 3, pois este valor é o mais frequente no conjunto P.
Exemplo 2: O conjunto não tem moda, pois não existe nenhum valor mais frequente no conjunto Q.
Observação 1:
A moda em um conjunto pode assumir quatro classificações. São elas:
Amodal, quando não existe moda.
Ex:
Unimodal, quando a moda é única.
Ex:
Bimodal, quando há duas modas.
Ex:
Multimodal, quando há mais de duas modas.
Ex:
OBSERVAÇÃO 2:
A moda pode ser utilizada para representar tanto um conjunto de dados numéricos como um conjunto de dados nominais. Por exemplo, quando eu comecei a falar sobre a moda, nessa publicação, perguntei qual curso tinha se destacado entre os demais naquela pesquisa e foi até o curso de engenharia que mais se destacou certo? Pois bem, aquele conjunto formado pelos nomes dos cursos é um exemplo de conjunto nominal, ou seja, um conjunto formado apenas por nomes.
MEDIANA
Mediana é uma medida de tendência central que tem a característica de dividir um conjunto ao meio. Isto é, a mediana de um conjunto o separa em duas partes de modo que 50% dos valores sejam menores que ela e 50% dos valores sejam maiores que ela, ou seja, em um conjunto onde seus elementos estão dispostos em ordem crescente ou decrescente a mediana é o termo central desse conjunto ou o elemento que está bem no meio.
Por exemplo: considere um conjunto A, tal que:
Em primeiro lugar colocamos esse conjunto em ordem crescente ou decrescente, tanto faz. Eu costumo colocar sempre na ordem crescente para melhor entendimento do assunto.
Note que essa sequencia é formada por um número par de termos, ou seja, por seis termos. Portanto existem dois termos centrais: os que ocupam a 3ª e 4ª posições. Logo qualquer valor que se encontre entre esses dois termos, no caso, o 4 e o 6, pode dividir o conjunto em duas partes com a mesma quantidade de elementos. Porém, por definição, nesses casos em que o conjunto apresenta dois termos centrais, consideramos a média aritmética entre esses dois termos para ser o termo central, ou seja, no nosso caso deveríamos somar 4 + 6 = 10 e dividir por 2, assim obteríamos o valor 5 como resposta para o nosso termo central do conjunto A.
Quando há um número ímpar de termos em um conjunto, existirá um único termo central. Nesses casos a mediana será o próprio termo central, sem dificuldades. Vamos a um exemplo para ilustrar nossa afirmação.
Exemplo: Dado um conjunto , determinar sua mediana.
Primeiro devemos organizar o conjunto em ordem crescente ou decrescente, tanto faz. Em ordem crescente o conjunto ficaria assim:
Nesse caso o termo central é o que se encontra na 4ª posição, ou seja, o número 5. Dizemos então que o número 5 é a mediana desse conjunto, pois é ele que se encontra bem no meio dele.
2-1-2 Medidas de Dispersão
Dispersão é sinônimo de variação ou variabilidade. Para medir a dispersão são usadas mais frequentemente duas medidas: a amplitude e o desvio padrão.
Amplitude
A amplitude é definida como sendo a diferença entre o maior e o menor valor do conjunto de dados. Denotaremos a amplitude por R.
Exemplo 2.2.1: Considere o Exemplo 2.1.3. Qual a amplitude deste conjunto de dados?
Como o valor máximo do conjunto é 72 e o valor mínimo é 60, temos que a amplitude é:
R = 72 - 60 = 12.
Utilizando o Action, temos o seguinte resultado.
Informação Valor
Amplitude 12
2-1-3 Técnicas de Amostragem Probabilística
Os métodos para selecionar uma amostra podem ser agrupados nas “duas” famílias seguintes: Amostras Casuais, Probabilísticas ou Aleatórias e Amostras Não Casuais, Não Probabilísticas ou Não Aleatórias.
Constituição das principais Amostras Casuais, Probabilísticas ou Aleatórias
Os métodos de Amostragem Probabilísticos são preferíveis quando o utilizador pretende extrapolar com confiança para o Universo os resultados obtidos a partir da amostra. Neste tipo de amostragem é possível demonstrar a representatividade da amostra assim como calcular estatisticamente o grau de confiança com o qual as conclusões tiradas da amostra se aplicam ao Universo. Os métodos de Amostragem Casual, Probabilísticos ou Aleatórios mais utilizados são os seguintes:
- Amostragem Aleatória Simples
- Amostragem Sistemática
- Amostragem Estratificada
- Amostragem por Clusters
- Amostragem Multi-Etápica
Amostragem Aleatória Simples
Corresponde a um método de seleção dos elementos da amostra, em que cada um deles tem uma probabilidade igual (e não nula) de ser selecionado do Universo. As duas técnicas mais vulgarmente utilizadas para escolher uma amostra aleatória simples são:
••. Técnica da Lotaria – neste caso, o investigador atribui um número a casa um dos casos do Universo inquirido. Seguidamente escreve o número em papelinhos e coloca-os, por exemplo, numa caixa. Depois de bem misturados, são retirados n papéis da caixa (n refere-se ao número do tamanho da amostra desejada).
. Técnica da Tabela dos Números Aleatórios – esta técnica utiliza uma tabela de números aleatória já preparada como, por exemplo, a tabela de RAND. Para utilizar tal tabela, o investigador atribui números a cada um dos casos do Universo inquirido. “Entra na tabela, numa página de colunas escolhidas ao acaso, e começa a ler os números em coluna, escolhendo um conjunto de números consecutivos com valores iguais ou inferiores ao tamanho do Universo inquirido (…), por exemplo, se o universo tiver 3500 casos e o investigador pretender retirar uma amostra de 500 casos, deve escolher um conjunto de 500 números consecutivos (ignorando todos os números na tabela com valores superiores a 3500)”. (HILL et al, 2002)
Amostragem Aleatória Sistemática
Segundo BACELAR (1999), a amostragem aleatória sistemática é uma variante da amostragem aleatória simples que se usa quando os elementos da população estão organizados de forma sequencial.
Suponhamos que o “Universo consiste em N=5000 casos (enumerados 0001, 0002… 5000) e que o investigador quer retirar uma amostra de n= 500 casos. O valor k (onde k=N/n) define o intervalo de amostragem. Neste exemplo k 5000/50 =10. O investigador usa o intervalo de amostragem para selecionar a amostra.” (HILL e tal, 2002). É necessário seguidamente escolher ao acaso um número entre 1 e k, que será representado por R. Então, deve entrar numa tabela de números aleatórios, numa página e colunas escolhidas ao acaso e selecionar o número que ocupa a posição r na coluna escolhida. É então o valor desse número que indica o número do primeiro caso a incorporar na amostra. O segundo caso será o que ocupa a posição (r¬+k), depois o que ocupa a posição (r+2k) e assim sucessivamente até a amostra de n casos estar concluída.
Contudo, segundo o mesmo autor, este método apresenta duas desvantagens: no primeiro passo da amostragem é difícil de atribuir, genuinamente ao acaso, número aos casos, mas é importante fazer isto. A segunda desvantagem é que, o valor de r é escolhido ao acaso, mas o resto dos casos é escolhido por aplicação de um intervalo fixo, e, portanto, em rigor, não são escolhidas ao acaso.
Amostragem Estratificada
Esta técnica de amostragem usa informação existente sobre a população para que o processo de amostragem seja mais eficiente. A lógica que assiste à estratificação de uma população é a de identificação de grupos que variam muito entre si no que diz respeito ao parâmetro em estudo, mas muito pouco dentro de si, ou seja, cada um é homogéneo e com pouca variabilidade.
As três etapas para se definir uma amostra estratificada são:
. Definir os estratos;
. Selecionar os elementos dentro de cada estrato mediante um processo aleatório simples;
. Conjugar os elementos selecionados em cada estrato, que na sua totalidade constituem a amostra.
Este método de amostragem estratificada tem a vantagem de ser mais eficiente do que os métodos de amostragem simples ou sistemática, pois é mais económico em termos de tempo e dinheiro e fornece resultados com menor probabilidade de erro associada.
Amostragem por Clusters
Este tipo de amostragem é especialmente útil quando o universo estatístico é formado por populações de grande dimensão e disperso por vastas áreas geográficas. A Amostragem por Clusters usa agrupamentos naturais de elementos da população, nos quais cada elemento da população pertence a um só grupo. Para tal, é necessário que se disponha de uma listagem completa das amostras primárias (por exemplo, as turmas de uma escola). Os Clusters são escolhidos aleatoriamente e, dentro de cada Cluster todos os elementos são selecionados, ou seja, só existe uma etapa de amostragem. Está orientada para a seleção de grupos de elementos e não de elementos individuais.
Segundo HILL et al (2002), este método tem a vantagem de ser muito útil quando for difícil, ou impossível, conhecer todos os casos do Universo, mas todos estes casos existem, naturalmente, por Clusters. A desvantagem é que os Clusters devem ser relativamente semelhantes de modo a que uma amostra aleatória de Clusters possa ser uma amostra representativa dos casos do Universo.
Amostragem Multi-Etápica ou Por Etapas
Neste tipo de amostragem, seleciona-se em primeiro lugar, aleatoriamente, uma amostra por Clusters – repare-se que é muito mais fácil obter uma lista por Clusters (por exemplo, de escolas) do que uma lista exaustiva dos elementos que compõem a População (por exemplo, todos os alunos). Seguidamente podemos realizar, ou não, uma segunda etapa, na qual são escolhidos aleatoriamente alguns elementos dos Clusters selecionados na fase anterior ou, então, continuando com a seleção de Clusters até se chegar às unidades elementares.
Constituição das principais Amostra Não Casuais, Não Probabilísticas ou Não Aleatório-Estes
Estes métodos não são aconselháveis quando se pretende extrapolar para o Universo os resultados e conclusões obtidos com a amostra, contudo, poderão ser muito úteis no início de uma investigação, por exemplo, para testar as primeiras versões de um questionário. Dentro destes métodos, os mais vulgarmente utilizados são:
- Amostragem por Conveniência
- Amostragem por Quotas
Amostragem por Conveniência
Este tipo de amostragem não é representativo da população. Ocorre quando a participação é voluntária ou os elementos da amostra são escolhidos por uma questão de conveniência (muitas vezes, os amigos e os amigos dos amigos). Deste modo, o processo amostral não garante que a amostra seja representativa, pelo que os resultados desta só se aplicam a ela própria. Pode ser usado com êxito em situações nas quais seja mais importante captar ideias gerais, identificar aspectos críticos do que propriamente a objetividade científica. Contudo, o método tem a vantagem de ser rápido, barato e fácil.
Amostragem por Quantas
Este tipo de amostragem pode considerar-se análogo ao método de amostragem estratificada, mas com um aspecto que lhe faz toda a diferença: em vez de se escolher uma amostra aleatória dentro de cada um dos estratos da etapa final, escolhe-se uma amostra não aleatória de tamanho determinado pela fracção de amostragem. Contudo, e segundo HILL et al (2002), há duas grandes desvantagens com este método de amostragem: primeiro, embora o número de casos em cada um dos estratos seja proporcional ao número de casos no mesmo estrato do Universo, a amostra de casos dentro do estrato, por não ser escolhida ao acaso, não é necessariamente representativa dos casos do estrato correspondente ao Universo. O autor defende que há quase sempre um envasamento na seleção dos casos dentro dos estratos porque a amostra de casos é normalmente escolhida por meio de um método de amostragem por conveniência. Tal característica remete-nos para uma segunda desvantagem, pois, nestes casos, não é possível extrapolar com confiança para o Universo os resultados e conclusões tiradas a partir da amostra.
Envasamentos na realização da amostra
Segundo GHIGLIONE e MATALON (1997), a qualidade das conclusões que podemos retirar de um inquérito, depende da composição da sua amostra. Como vimos anteriormente, quando a amostra não se verifica representativa da população particular que pretendemos estudar, as conclusões que daí retirarmos, afastará das que teríamos obtido se tivéssemos oportunidade de ter inquirido toda a população. Dizemos então que a amostra é enviesada, pois a generalização não é legítima.
Alguns destes envasamentos podem constituir-se no próprio momento da constituição da amostra como, por exemplo, na falta de uma lista exaustiva da população, temos por aproximação uma base de sondagem que cobre somente parte da população visada. Podemos ainda ser confrontados, por múltiplas razões, com as ausências e recusas por parte da população selecionada para fazer parte da amostra.
Porém, e como nos referem GHIGLIONE e MATALON (1997), não existe qualquer método que nos assegure, em todos os casos, uma amostra absolutamente representativa. Contudo, “se é necessário estarmos bem conscientes do problema, permanecer atento a estas dificuldades e não ficar facilmente satisfeito com o sorteio ou com o cumprimento das quotas é também indispensável evitar um purismo exagerado e condenar toda a sondagem por causa dos seus envasamentos inevitáveis”.
Para definirmos desvio padrão é necessário definir variância. A notação mais comumente usada é:
• s: variância amostral.
• σ2: variância populacional.
• s : desvio padrão amostral.
• σ : desvio padrão populacional.
Variância populacional
A variância de uma população {x1,...,xN} de N elementos é a medida de dispersão definida como a média do quadrado do desvios dos elementos em relação à média populacional μ. Ou seja, a variância populacional é dada por:
Variância amostral
A variância de uma amostra {x1,..., xn} de n elementos é definida como a soma dos quadrados dos desvios de elementos em relação à sua média dividido por (n-1). Ou seja, a variância amostral é dada por:
Ao utilizarmos a média amostral como estimador de m para calcularmos a variância amostral, perdeu 1 grau de liberdade em relação à variância populacional.
Desvio padrão populacional
O desvio padrão populacional de um conjunto de dados é igual à raiz quadrada da variância populacional. Desta forma, o desvio padrão populacional é dado por:
Desvio padrão amostral
O desvio padrão amostral de um conjunto de dados é igual à raiz quadrada da variância amostral. Desta forma, o desvio padrão amostral é dado por:
Exemplo 2.2.2: Considere novamente os dados do Exemplo 2.1.3. Calcule o desvio padrão dos dados.
Para calcularmos o desvio padrão devemos primeiramente calcular a média , isto é:
Agora vamos subtrair de cada valor, elevar os resultados ao quadrado e somá-los. Então dividimos o total dos quadrados pelo número de valores menos 1, ou seja, por (n-1) e extraímos a raiz quadrada:
65-67,875 = -2,875 (-2,875)2 = 8,265625
72-67,875 = 4,125 (4,125)2 = 17,015625
70-67,875 = 2,125 (2,125)2 = 4,515625
72-67,875 = 4,125 (4,125)2 = 17,015625
60-67,875 = -7,875 (-7,875)2 = 62,015625
67-67,875 = -0,875 (-0,875)2 = 0,765625
69-67,875 = 1,125 (1,125)2 = 1,265625
68-67,875 = 0,125 (0,125)2 = 0,015625
Total = 110,875
Portanto, o desvio padrão é 3,97986.
Utilizando o Action, temos o seguinte resultado.
Informação Valor
Desvio-padrão 3,97986
2-2 Números-Índices
.Número índice é o quociente de variável enfocada entre datas distintas, sejam elas temporais ou espaciais. O índice só tem significado se as datas que se refere forem claramente especificadas, caracterizando a época, o período e o local a que dizem respeito. Nesse quociente, o numerador é chamado valor considerado (ou corrente), e denominador, valor base (ou de referência).
Conceito
Por convenção, índice é adimensional, na forma percentual, com dois dígitos e sem sinal indicativo dessa condição. O que lida com grandezas simples é dito elementar ou simples; o que trata de grandezas complexas (resume muitos valores), agregativo ou sintético. Como a base corresponde o valor 100, é indicada por: base = 100.
Em razão da própria definição – quociente de dada variável em suas datas distintas -, o número-índice também é dito valor relativo ou simplesmente relativo. Em Economia, por exemplo, é freqüente o interesse na variação dos preços, quantidade e valor dos bens e serviços que as firmas produzem e oferecem ao mercado, visando atender às necessidades objetivas e subjetivas de seus consumidores potenciais.
Aplicações
• Em estatística é sinônimo de variação relativa na variável de interesse;
• Em economia, há índices de preços, quantidades e valor dos bens, de custo de vida, de (des) emprego, de bolsas de valores, de concentração dos mercados, de monopólio de empresas, de importação e exportação;
• Em administração, índices de produção, de liquidez (corrente e seco), velocidade de vendas, lucratividade e endividamento possibilitam avaliar a saúde financeira das empresas,
• Em administração publica, diversos índices permitem avaliar a qualidade de vida, a permanência ou evasão escolar, o nível de criminalidade e o padrão de saúde das populações.
E há mais em muitas outras áreas como Engenharia, Física, Medicina (índices de fertilidade, natalidade, morbidez, mortalidade, etc.), nas chamadas ciências do comportamento (psicologia, sociologia, etc.) e em educação (quociente de inteligência, coeficiente de aprovação, etc.).
2-3deflação de Dados
O termo Deflação designa uma quebra generalizada dos preços dos bens e serviços, geralmente associados a graves recessões económicas e a restrições da procura, da produção/oferta e do emprego. Tal como a inflação, a deflação é medida como a taxa de variação do Índice de Preços no Consumidor (IPC) - na verdade, a deflação não mais é do que uma "inflação negativa".
Ao contrário do que poderá parecer numa situação de deflação, o consumo não tem tendência a aumentar - na realidade, se os consumidores estiverem na expectativa de que os preços continuarão a descer, adiarão as suas compras, levando a uma quebra do consumo e consequentemente das receitas das empresas. Em longo prazo, esta situação poderá originar uma espiral de recessão com graves consequências para a economia.
3- Ética Política e Sociedade.
O consumo, na contemporaneidade, cumpre diferentes funções e implica múltiplas referências como construção social, porém, nos padrões atuais, é insustentável, tanto na perspectiva ambiental quanto da construção de direitos e da cidadania. Para compreender os desafios da construção de ações e políticas capazes de renovar as práticas de consumo, problematizam-se neste artigo as respostas aos dilemas do consumo construídas por atores da sociedade civil, do Estado e do mercado. O consumo sustentável se configuraria como uma das possibilidades de tratamento dos impactos do consumismo, pois envolve mudanças de atitude aliadas à necessidade de transformação do sistema das atitudes e dos valores dos cidadãos. Apesar de ainda não se observar a predominância de um novo modelo civilizatório capaz de superar os dilemas da sociedade do consumo, existem alternativas para promover a sustentabilidade. Esse esforço sugeriria a construção de articulações entre diferentes grupos, quer seja do governo, quer da sociedade civil, quer do mercado, para atender às demandas da população e adotar boas práticas de produção e consumo sustentáveis, por meio da ação política e do exercício da cidadania. Na pesquisa empírica, de abordagem qualitativa, com entrevistas em profundidade e análise descritiva, percebeu-se que a comunicação para a construção de discursos e práticas politicamente corretos para o consumo, por parte dos atores pesquisados, para torná-lo sustentável, nem sempre abarca a complexa relação que envolve o meio ambiente nas esferas pública e organizacional. Muito presente nos textos de relatórios empresariais, o desenvolvimento sustentável não é percebido na prática organizacional cotidiana. Nesse contexto, descortinam-se diferentes dramas e tramas da cidadania socioambiental que podem dar novo sentido às lutas ambientais no campo do consumo, bem como encobrir as armadilhas de um discurso ambientalmente correto.
CONCLUSÃO
Com base no que vimos acima no trabalho microeconomia e macroeconomia tende antar juntamente com a ética porque e por um individuo sem ética não conseguira alcançar seu objetivos desejados conforme a ética nos convém .
REFERÊNCIAS
http://economia.terra.com.br/inflacao-pelo-igp-di-acelera-alta-a-136-em-setembro,cffa9f55e9591410VgnCLD2000000ec6eb0aRCRD.html http://economia.terra.com.br/copom-inicia-reuniao-para-discutir-taxa-, e9199f55e9591410VgnCLD2000000ec6eb0aRCRD.html
...