sexta-feira, 8 de novembro de 2013

47 Processos do guia PMBOK Quinta Edição


por Mário Trentin, publicado originalmente no blog Mundo PM
Primeiramente, cumpre ressaltar que não houve mudança nos Grupos de Processos, que continuam sendo:
  • Iniciação
  • Planejamento
  • Execução
  • Monitoramento e Controle
  • Encerramento

Sobreposicao - Grupos de ProcessosFigura 1 – Grupos de Processos
Dentre as novidades, em relação aos processos, houve a criação da nova área do conhecimento chamada Stakeholders ou Partes Interessadas. Na versão anterior, Guia PMBOK 4a edição, existiam 42 processos. Nesta nova edição, temos 47 processos. Foram adicionados os seguintes processos:
  • Planejar Gerenciamento do Escopo
  • Planejar Gerenciamento do Tempo
  • Planejar Gerenciamento do Custo
  • Planejar Gerenciamento dos Stakeholders
  • Controlar Stakeholders
Vale ressaltar que o Guia PMBOK 5a edição já está disponível em inglês, mas ainda não existe a tradução oficial para português. Logo, os nomes dos processos foram traduzidos por mim, tradução livre e não oficial.
Além dos cinco novos processos, alguns processos foram renomeados: 5.5; 8.3; 10.2; 10.3 e 12.3. Os processos 13.1 e 13.3 pertenciam à área do conhecimento Comunicação e foram transferidos para a nova área Stakeholders. A seguir, temos os processos do Guia PMBOK 5aedição.
Captura de Tela 2013-03-14 às 15.14.53Figura 2 – Processos do Guia PMBOK 5a edição
figura-4-1024x765Figura 3 – Processos do Guia PMBOK 5a edição

sábado, 2 de novembro de 2013

Livros para Todo Engenheiro de Produção


Olá pessoal, resolvi criar uma seção aqui no blog com os principais livros ligados a Engenharia de Produção. A maioria dos livros de nossa livraria eu já tive a oportunidade de ler durante a minha vida acadêmica e profissional e muitos, eram usados pelos meus principais gerentes e professores. Os livros são variados, alguns em forma de narrativa como a Meta e O Monge e o Executivo, e outros, tem material mais técnico voltados para as áreas de Engenharia de Produção, Administração e Qualidade.


Resumo do Livro: Para os profissionais de gestão esse é um bom livro, aborda gestão estratégica, gestão da cadeia de suprimentos, Planejamento e Controle da Produção ( PCP ), Administração de Materiais, Arranjo Físico até Automação, muito completo e rico em cases principalmente europeus. Não é um livro para você ler de uma vez, é uma verdadeira enciclopédia para profissionais das áreas de administração de empresas e engenharia consultarem ao longo da carreira.

Autores: Nigel Slack, Stuart Chambers, Robert Johnston


Resumo do Livro: Um livro muito bom que apresenta os princípios da teoria da restrição, o livro conta a história de um diretor de fábrica que se vê pressionado a obter resultados em três meses, a forma como a narrativa vai trazendo a teoria das restrições, na minha opinião, é um dos pontos fortes desse livro.

Autores: Eliyahu Goldratt





Descrição: Quando estava iniciando meus estudos sobre a norma ISO 9001 li este livro e me ajudou muito a entender alguns requisitos da norma e como atendê-los, muito bom para quem está iniciando os estudos na qualidade. Ainda não encontrei uma versão para a norma ISO 9001:2008, como as mudanças não foram tão profundas, considero que o livro continua atual.

Autores: Carlos Henrique Pereira Mello, Carlos Eduardo Sanches da Silva, João Batista Turrioni, Luiz Gonzaga Mariano de Souza

Administração de Produção e Operações


Descrição: Esse livro tem um conteúdo muito parecido com o livro do Nigel Slack, eu gostei dessa versão pois traz muitos cases brasileiros, o livro é mais compacto também, ótima leitura para Engenheiros de Produção e Administradores.

Autores: Carlos Correa, Henrique Correa





Descrição: Tem muita informação sobre estatística básica e aplicada ao controle dos processos, intervalos de confiança, amostragem, análise de variância (anova), cusum, gráficos de controle de Shewhart, Ferramentas da Qualidade, muito bom os exemplos usando Minitab. Considero esse um livro essencial para profissionais ligados a Engenharia da Qualidade.

Autor: Douglas C. Montgomery

Descrição: Livro muito bom sobre ISO 9001:2008, é um livro de cabeceira pra mim que eu consulto sempre. Além de explicar sobre certificação, requisitos da norma, ele apresenta 4 exemplos de sistemas de gestão da empresas de diferentes segmentos. São 128 páginas de ótimo conteúdo.

Autor: LUIZ CESAR RIBEIRO CARPINETTI & MATEUS CECILIO GEROLAMO & PAULO AUGUSTO CAUCHICK MIGUEL

Organização e Métodos: Uma visão holística
Descrição: Um livro muito importante para quem aprender sobre O & M. O livro apresenta as principais teorias, fala sobre fluxogramas, processos e ainda ensina a fazer uma análise administrativa em organizações.

Autor: Antonio Cury




Descrição: Atualmente, a implantação de Sistemas de Gestão Ambiental (SGA - ISO 14001) é considerada como um elemento estratégico para organizações ambientais a torná-las mais competitivas em um mercado globalizado. Neste livro, a implantação de SGAs é discutida com base na experiência prática e embasamento teórico onde, com uma linguagem clara e objetiva, a autora discute cada etapa envolvida no processo de implantação de SGAs.

Autor: MARI ELIZABETE BERNARDINI SEIFFERT



Descrição: Gerenciar projetos tem sido definido como a aplicação de conhecimento, habilidades, ferramentas e técnicas às atividades do projeto a fim de atender aos seus requisitos (PMI, 2004:8). Este livro proporciona uma visão abrangente sobre esses conhecimentos, habilidades e técnicas. Para isso, o livro elege como coluna mestre um estudo de caso de um projeto. Em todos os capítulos, os exemplos básicos de cada técnica e teoria são baseados nesse único projeto.


Autor: JOAO RICARDO BARROCA MENDES



Descrição: Este novo livro do professor Brasiliano aborda de forma objetiva um framework para que as empresas possam implantar um processo de Gestão de Riscos Corporativos - GRC. O livro descreve o Método Brasiliano de Gestão de Análise de Riscos, já alinhado com as diretrizes da ISO 31000. O método conceitua o que é risco, como identificar os fatores de riscos, sugere uma matriz de riscos como ferramenta de gestão, e descreve também um processo de elaboração de plano de ação e de monitoramento dos riscos.

Autor: ANTONIO CELSO RIBEIRO BRASILIANO



Descrição: Muita informação sobre matemática financeira: regimes de capitalização, sistemas de amortização, séries de capitalização, tipos de taxas existentes no mercado e avaliação de projetos.

Autor: JUAN CARLOS LAPPONI



By: http://aengenhariadeproducao.blogspot.com.br/2011/12/livros-sobre-engenharia-de-producao.html

quarta-feira, 30 de outubro de 2013

As 10 melhores técnicas de estudo de acordo com a ciência


Incrível o resultado do estudo publicado pela revista científica Psychological Science in the Public Interest, que avaliou, no início deste ano, 10 técnicas de aprendizagem utilizadas pelos estudantes.
É claro que cada pessoa tem seu modo particular de estudar. Uns precisam do professor do lado, outros são autodidatas. Uns gostam de videoaulas, outros preferem os livros. Uns gostam de estudar em completo silêncio, outros ouvindo seu estilo preferido de música. Uns gostam de estudar sozinhos, outros em grupo. Enfim, na prática, acho que, independentemente do resultado deste estudo, cada um tem a forma própria de aprendizado e sabe o que funciona melhor para si.
Mas que eu fiquei muito surpresa com o resultado, isso fiquei. Técnicas que aprendemos desde cedo na escola, como resumir e grifar, foram classificadas como de baixa utilidade. Bem, vamos à lista das 10 melhores técnicas de estudo segundo a ciência, por ordem de utilidade, da mais alta para a mais baixa.

1. UTILIDADE ALTA
De acordo com o resultado da pesquisa dos psicólogos americanos, apenas duas técnicas de estudo têm alta eficácia: prática distribuída e teste prático.

- Prática distribuída
Consiste em programar um cronograma de estudos ao longo do tempo. Este método apresentou o melhor resultado. Seu rendimento aumentará se, ao invés de estudar todo o conteúdo de uma prova de uma só vez, dividir a matéria para ser estudada em períodos menores durante o dia. Se você apenas estuda e pode organizar seu próprio horário em época de provas, terá mais sucesso se estudar, por exemplo, 2 horas de manhã, 2 a tarde e 2 a noite, ao invés de estudar a matéria inteira durante 6 horas seguidas. E, mesmo entre as duas horas, convém fazer um pequeno intervalo.
Se você trabalha, faz estágio ou tem outras atividades além da faculdade, poderá aplicar esta técnica nos finais de semanas. Se não for possível, lembre-se de fazer pequenos intervalos a cada hora de estudo, pois isso ajudará a manter seu rendimento.
É por esta razão que a prática distribuída também pode ser interpretada como a distribuição do estudo em pequenos períodos ao longo do dia com intervalos de descanso. De acordo com as pesquisas, a distribuição do estudo é de 10% a 20% do período que o conteúdo precisa ser lembrado. Se você precisa lembrar de algo durante 10 anos, por exemplo, pode dividir o tempo de aprendizado a cada ano. Mas, se a prova é daqui a uma semana, você precisará estudar uma vez ao dia!
É claro que, pelo menos teoricamente, deveríamos estudar para acumularmos conhecimentos para a vida profissional mas, na hora do desespero, nossa preocupação é só com a prova mesmo!!! Mas, lembre-se que, de acordo com a pesquisa, estudar de última hora não funciona!!! E isso sabemos na prática, não é?? Eu, pelo menos, quase nunca fiz uso da “Prática distribuída” durante minha vida acadêmica.

- Teste prático
Os estudantes da área de exatas, sem dúvida alguma, podem confirmar a importância da resolução de exercícios!! Desde pequena escuto minha mãe dizer: “Só se aprende matemática resolvendo exercícios”. E, contra fato, não há argumento: a pesquisa científica comprovou que resolver questões de provas é até duas vezes mais eficiente que outras técnicas avaliadas.
Então, resolva muitos exercícios, realize muitos testes práticos relacionados ao conteúdo em estudo, pois é uma das melhores técnicas de aprendizagem. Os psicólogos responsáveis pela pesquisa apontam que a qualidade dessa técnica se deve aos vários formatos possíveis de aplicação: questões de múltipla escolha, testes do tipo “preencha a lacuna”, questões assertivas. Ao final de cada conteúdo, faça sempre os testes práticos e exercite aquilo que acabou de estudar.Quanto mais testes e exercícios resolver, melhor!!

2. UTILIDADE MÉDIA
Estudo intercalado, auto-explicação e interrogação elaborativa foram pontuados como técnicas de estudo de resultado médio pela pesquisa publicada pela revista Psychological Science in the Public Interest.

- Estudo intercalado de diferentes conteúdos
Esta técnica demonstrou ter bons resultados, principalmente, no aprendizado das matérias de ciências exatas, como matemática, física e estatística. Bem, eu achei estranho pois, pessoalmente, consigo ficar horas estudando matérias com cálculo, mas me perco facilmente quando preciso estudar qualquer conteúdo teórico.
Também, como professora universitária, sempre foi mais fácil prender a atenção dos alunos durante as aulas de Matemática Aplicada à Construção de Edifícios se for comparar com as aulas de disciplinas mais teóricas como Materiais de Acabamentos. A sala ficava lotada durante as aulas de matérias exatas ou de AutoCAD (bem prático, por sinal) mas, para manter os alunos interessados durante 4 aulas seguidas de disciplinas teóricas, sempre tive que usar a criatividade e fazer uso de ferramentas áudio-visuais (e nem sempre foi suficiente!!).
Pra falar a verdade, eu mesma me peguei dormindo algumas vezes nas aulas teóricas quando fazia mestrado. Mas, se era uma matéria de cálculo como Orçamento de Obras, por exemplo, dai eu ficava até o último minuto.
A pesquisa comprovou que é mais efetivo estudar  intercalando diferentes tipos de conteúdos de uma maneira mais aleatória que estudar tópicos de uma só vez. O principal benefício desta técnica é fazer com que a pessoa se mantenha mais tempo estudando.
Misturar diferentes matérias em uma mesma sessão de estudos é eficiente porque, toda vez que retomamos um conteúdo visto anteriormente, acessamos a memória de longo prazo, o que faz com que o cérebro relembre algo, ajudando a fixar o conteúdo que não foi visto nos últimos minutos.

- Auto-explicação
Você explicando pra você mesmo o que acabou de estudar (isso ficou estranho!!). É como se pensasse em voz alta. Eu nunca fui fã desta técnica, mas meu marido só estuda desta forma e já passou em vários concursos públicos. Prova de que uma técnica de estudo, mesmo sendo avaliada com eficácia média por uma pesquisa científica, pode ter um ótimo resultado dependendo do perfil da pessoa.
De acordo com a pesquisa, a técnica só dá certo se o estudante entender o assunto e conseguir decodificar o que está aprendendo. Não adianta apenas “ler em voz alta” ou, ainda, “trocar uma palavra por outra”. Você realmente precisa compreender o que leu e explicar com as próprias palavras!
E o resultado só aparecerá se a técnica for aplicada durante o estudo. Se você deixar para mais tarde, descobrirá que já se esqueceu de  uma quantidade maior de informações e sentirá dificuldades de auto-explicar o conteúdo estudado em outro momento.

- Interrogação elaborativa ou Elaboração de perguntas

Sou menos fã ainda desta técnica que da anterior. Culpa de minha personalidade  imediatista e impulsiva. Não consigo ficar “filosofando”, quero terminar logo o que comecei a estudar, partir para o próximo tema.
Falei em ‘filosofar’ porque a técnica de interrogação elaborativa pressupõe a criação de explicações que justifiquem a veracidade dos fatos apresentados pelo texto. Para aplicá-la, é necessário fazer perguntas do tipo “Por quê” ao invés de “O quê”? Exemplos: “Por que isso foi criado?” ou “Por que isso faz sentido?”.
Mas é evidente que isso não é nada simples. Você precisa conhecer o tema, no mínimo, para fazer perguntas que tenham sentido. Então, ao estudar um assunto e elaborar perguntas, acabamos por acrescentar conhecimentos que já possuíamos anteriormente. E, ao investigarmos as origens do conteúdo em estudo, assimilamos melhor o que foi lido, afirma a pesquisa.
Essa técnica exige um esforço maior do cérebro e é melhor aplicada por estudantes mais experientes.

3. UTILIDADE BAIXA
Este resultado me surpreendeu demais… Afinal, contraria os métodos de estudo que aprendi durante minha fase “concurseira”. Os principais “magos dos concursos públicos” apostam em algumas técnicas avaliadas pela pesquisa dos americanos como de baixa eficácia: resumo, visualização, associação mneumônica,  releitura e grifo.

- Resumo
“Fazer uma resenha” ou “resumir” destacando os principais pontos do texto sempre foi um método, digamos, intuitivo de estudarmos. Porém, segundo a pesquisa, esta técnica tem utilidade apenas para as provas escritas. Para provas objetivas o resultado é pouco satisfatório.
Apesar disso, o resumo ainda é melhor quando comparado às técnicas de grifar e reler os textos. Se você já tem habilidade em produzir resumos, não se preocupe, a pesquisa afirma que pode ser uma estratégia efetiva para pessoas com a sua capacidade.
O principal problema desta técnica de estudo é que nem todos os estudantes conseguem extrair  ideias essenciais de um texto. Na maioria das vezes, apenas reescreve tudo que leu usando palavras diferentes do texto original.

- Visualização ou Associação de imagens com textos
Mapa mental

Associar imagens com textos é uma das técnicas mais queridas e defendidas pelos concurseiros. Porém, só tem resultado satisfatório para memorização de frases, mas não funciona quando se trata de textos longos, aponta a pesquisa dos psicólogos americanos. Essa foi a conclusão a que chegaram após pedirem para alguns estudantes que imaginassem figuras durante a leitura de textos.
Além da transformação das imagens mentais em desenhos não ter demonstrado aumento no processo de aprendizagem, ainda trouxe o inconveniente de limitar os benefícios da imaginação.
Independentemente do que diz a pesquisa, eu gosto desta técnica (talvez porque seja arquiteta… e arquitetos gostam de desenhar e de usar a imaginação). Já me ajudou muito em provas, mas realmente só usei para frases com poucas palavras. Mas existem pessoas que passaram em concursos públicos cobiçadíssimos aplicando a técnica da visualização (ou memorização como preferem alguns). O resultado da pesquisa tampouco invalida o uso de mapas mentais para estudos, pois estes não se baseiam apenas em desenhos mas, também, na conexão de ideias e conceitos, como bem colocado pela matéria do site Mude.
De acordo com o artigo do Guia do Estudante, outro site que consultei para fazer este post, o método da visualização “pode ajudar a formar uma narrativa, de modo a organizar o assunto de uma maneira mais clara a partir das imagens. A associação de imagens foi classificada como de baixa utilidade porque os pesquisadores não conseguiram identificar com clareza em quais situações o método dá certo”.

- Mnemônicos ou Associação mneumônica
Palavra-chave-1
Nunca tinha ouvido falar na palavra “mnemônicos”, mas já apliquei muito a técnica mesmo sem conhecer sua definição, que tem relação com a memória ou algo fácil de ser lembrado como, por exemplo, o uso de palavras-chave ou siglas.
Quem não se lembra da “Fórmula do Sorvete” (S= So + V.t) ou do macete para decorarmos a 2ª Lei de Newton, associando a fórmula (Fr = m.a) ao texto “Ferre-se Maria”??
Pois esta técnica de nome complicado foi considerada de baixa eficácia. Assim como a associação de imagens com textos,  as siglas e palavras-chave foram reprovadas pela pesquisa para aplicação em textos longos. Então, a dica é utilizá-las apenas em casos específicos e, de preferência, um pouco antes da prova.
A pesquisa dos americanos  comprovou, ainda, que os mnemônicos só são recomendados e eficazes quando as palavras-chave são importantes e quando o material de estudo incluir palavras-chave fáceis de memorizar.

- Releitura
Esta técnica só demonstra resultado efetivo quando realizada seguidamente. Se você gosta desta prática de aprendizagem, então a dica é reler o texto várias vezes, uma após outra, sem um grande intervalo de tempo entre uma leitura e outra.
Geralmente, a releitura é menos eficaz quando comparada às outras técnicas de estudo. Porém, a pesquisa demonstrou que, em alguns casos, reler certos tipos de texto seguidas vezes pode apresentar um melhor resultado que resumos ou grifos, se praticados por igual intervalo de tempo.
O difícil é praticar esta técnica quando estamos “viajando”, “interessadíssimos” no texto. Várias vezes já me peguei voltando sempre ao mesmo parágrafo simplesmente porque o assunto do texto não me instigava. Como diz um post que circula pelo facebook há alguns meses: “quando temos que estudar, até uma mosca voando se torna mais interessante que a matéria da prova”.

- Grifar textos
Grifando as partes importantes do texto

Quem nunca grifou mais da metade de um texto enquanto estudava?? Nesta técnica surge o mesmo problema do resumo: a dificuldade do estudante em separar as partes realmente essenciais do texto. Confesso que eu tenho essa dificuldade, pois acho “quase tudo” importante. Um texto marcado por mim ficaria facilmente parecido com este ai da figura ao lado.
Muitos estudantes marcam grandes blocos do texto e, posteriormente, não conseguem distinguir claramente o que está destacado, pois o excesso prejudica a capacidade de lembrar o que foi grifado.
Além disso, a prática de grifar partes importantes da matéria estudada com caneta marca-texto foi considerada pouco efetiva pela pesquisa porque, ao fazer um grifo, seu cérebro não está organizando, criando ou conectando conhecimentos. Ou seja: quase não requer esforço!!


E você??? Concorda com a pesquisa?? Qual técnica de estudo tem dado melhor resultado em época de provas??

domingo, 27 de outubro de 2013

As 9 mais alucinantes descobertas da física!!!


O estudo da física é o estudo do universo e, mais especificamente, de como o universo funciona. É, sem dúvida, um dos ramos mais interessantes da ciência, porque o universo, como se vê, é muito mais complicado do que parece ser superficialmente. O mundo funciona de algumas maneiras realmente estranhas. Aqui estão nove das coisas mais incríveis que os físicos descobriram sobre o nosso universo:

09. O tempo para na velocidade da luz

De acordo com a Teoria da Relatividade Especial de Einstein, a velocidade da luz no vácuo nunca pode variar – ela é de quase 300 mil km/s. Isto em si já é incrível o suficiente, uma vez que nada pode se mover mais rápido que a luz, mas ainda é muito teórico. A parte realmente legal da Relatividade Especial é uma ideia chamada dilatação do tempo, que diz que quanto mais rápido você se mover, mais devagar o tempo passa para você em relação ao seu entorno. Se você fizesse um passeio em seu carro por uma hora, você teria envelhecido ligeiramente menos do que se você estivesse apenas sentado em casa. Claro que em velocidades rotineiras, o efeito é imperceptível.
Mas a ideia vale para velocidades maiores, e é aí que as coisas ficam interessantes. Um hipotético astronauta viajando em uma velocidade de 50% da velocidade da luz voltaria para a Terra bem mais jovem do que seu hipotético irmão gêmeo que ficou no planeta.
Talvez mais incrível do que isso é o fato de que se você pudesse atingir a velocidade da luz, o tempo simplesmente pararia para você. No entanto, antes de tentar essa forma de imortalidade, saiba que é impossível atingir a velocidade da luz.

08. Entrelaçamento quântico

Tudo bem, então nós acabamos concordando que nada pode se mover mais rápido que a velocidade da luz, certo? Bem … sim e não. Embora isso seja tecnicamente verdade, pelo menos em teoria, verifica-se que há uma lacuna encontrada no ramo alucinante da física conhecido como mecânica quântica.
A mecânica quântica, em essência, é o estudo da física em uma escala microscópica, como o comportamento das partículas subatômicas. Estes tipos de partículas são incrivelmente pequenos, mas muito importantes, pois eles formam os blocos de construção de tudo no universo.
Então, digamos que você tem dois elétrons (uma partícula subatômica com carga negativa). O entrelaçamento (também conhecido como emaranhamento) quântico é um processo especial que envolve o emparelhamento destas partículas. Quando isso acontece, as coisas ficam estranhas, porque a partir de agora, esses elétrons ficam idênticos. Isso significa que se você mudar um deles (como alterar sua velocidade orbital), sua partícula parceira alterará exatamente da mesma maneira. Instantaneamente. Não importa onde ela esteja – pode estar do outro lado do universo. Mesmo sem você tocá-la. As consequências deste processo são enormes e significam que a informação pode, essencialmente, ser teletransportada para qualquer parte do universo instantaneamente.

07. A luz é afetada pela gravidade

Mas vamos voltar à luz durante um minuto, e falar sobre a Teoria da Relatividade Geral desta vez (também de Einstein). Esta envolve uma ideia chamada deflexão de luz, que afirma que o caminho de um feixe de luz pode não ser totalmente reto.
Por mais estranho que possa parecer, isso tem sido repetidamente provado (está difícil para os físicos confrontarem uma ideia de Einstein). O que isto significa é que, embora a luz não tenha massa, ela é afetada pelas coisas que a fazem, como o sol, e outros objetos massivos. Então, se um feixe de luz de uma estrela distante passa perto o suficiente do Sol, ele vai se curvar ligeiramente em torno dele. O efeito sobre o observador, como nós, é que vemos a estrela em um local diferente do céu de onde ela realmente está localizada. Lembre-se da próxima vez que você olhar para as estrelas que tudo pode ser apenas um truque da luz.

06. Matéria escura

Graças a algumas das teorias que já discutimos (e mais um monte que ainda não), os físicos têm algumas maneiras muito precisas de medir a massa total do universo. Eles também têm algumas maneiras muito precisas de medir a massa total que podemos observar. Só que esses números não coincidem – e não chegam nem perto.
Na verdade, a quantidade de massa total no universo é muito maior do que a massa total que vemos. Os físicos foram forçados a chegar a uma explicação para isso, e a principal teoria agora envolve uma substância misteriosa que não emite luz e é responsável por aproximadamente 95% da massa do universo. Embora não tenhamos provas de sua existência (até porque não podemos vê-la diretamente), a matéria escura é apoiada por uma tonelada de evidências, e tem que existir de uma forma ou de outra, a fim de explicar o universo.

05. Nosso universo está se expandindo rapidamente

Para entender o porquê disso estar acontecendo, temos que voltar até o Big Bang. Antes de ser um programa de TV, a Teoria do Big Bang foi uma importante explicação para a origem do nosso universo. Na mais simples analogia possível, funcionou mais ou menos assim: o universo começou como uma explosão de um ponto infinitamente pequeno, quente e denso. Detritos  foram arremessados em todas as direções, impulsionados pela enorme energia da explosão. No entanto, como esses detritos (que hoje formam os planetas, estrelas e galáxias) são tão pesados, era de se esperar que essa “explosão” tivesse desacerado ao longo do tempo.
Mas isso não aconteceu. Na verdade, a expansão do nosso universo está ficando mais rápida ao longo do tempo, o que é tão louco como se você jogasse uma bola de beisebol e notar que ela vai ficando cada vez mais rápida, em vez de cair no chão. A única maneira de explicar isto é através da energia escura, que seria uma força motriz por trás dessa aceleração cósmica.
No entanto, não temos ideia do que ela seja ou como funciona.

04. Toda a matéria é apenas energia

A matéria e a energia são apenas dois lados da mesma moeda. Na verdade, você já deve saber disso se já ouviu falar da famosa fórmula E = mc ^ 2. O E é para a energia, e o m representa a massa. A quantidade de energia contida em uma determinada quantidade de massa é determinada pelo fator da conversão de c ao quadrado, onde c representa a velocidade da luz.
A explicação para esse fenômeno é realmente muito fascinante, e tem a ver com o fato de que a massa de um objeto aumenta à medida que ele se aproxima da velocidade da luz (mesmo quando o tempo está ficando mais lento). É, no entanto, bastante complicado, por isso para os fins deste artigo, vamos simplesmente assegurar-lhe que é verdade. Para a prova (infelizmente), não procure mais do que bombas atômicas, que convertem pequenas quantidades de matéria em grandes quantidades de energia.

03. Dualidade onda-partícula

Falando de coisas que são outras coisas …
À primeira vista, as partículas (como um elétron) e ondas (como a luz) não poderiam ser mais diferentes uma das outras. Um deles é um bloco de matéria sólido, e o outro é um feixe de energia radiante, mais ou menos. São maçãs e laranjas. Mas, como se vê, coisas como a luz e elétrons não podem limitar-se a um estado de existência – eles agem como partículas e ondas, dependendo de quem está olhando.
Isso soa muito estranho, mas há provas concretas que mostram que a luz é uma onda, e outras provas concretas que mostram que a luz é uma partícula (idem para os elétrons). Ao mesmo tempo. Não é uma espécie de estado intermediário entre os dois. Não se preocupe se isso não fizer muito sentido, porque estamos de volta ao reino da mecânica quântica e, a esse nível, o universo não gosta de fazer sentido de maneira alguma.

02. Todos os objetos caem na mesma velocidade

A física clássica também nos mostra alguns conceitos muito legais.
Você seria perdoado por assumir que os objetos mais pesados ​​caem mais rápido do que os leves. É o que o senso comum diz. E isso é verdade, mas não tem nada a ver com a gravidade – a única razão pela qual isso ocorre é porque a atmosfera da Terra oferece resistência. Na realidade, como Galileu primeiramente notou cerca de 400 anos atrás, a gravidade funciona da mesma forma para todos os objetos, independentemente da sua massa. O que isto significa é que se você jogar uma pena e uma bola boliche na lua (que não tem atmosfera), os objetos vão tocar o chão exatamente ao mesmo tempo – e na mesma velocidade.

01. Espuma quântica

Voltando para a física moderna, onde as coisas voltam a ficar muito estranhas…

‘Higgsogênese’ pode resolver mistério da matéria escura e antimatéria


O recém-descoberto bóson de Higgs é mais conhecido por seu importante papel na explicação da massa das partículas. Mas agora, alguns físicos estão se perguntando se o bóson poderia ter desempenhado um papel igualmente importante na formação da matéria escura e da matéria bariônica no início do Universo, bem como ter causado a assimetria entre partículas de matéria e antimatéria.
 
 
Em um novo artigo publicado na Physical Review Letters, físicos do CERN, da Universidade Autônoma de Barcelona, e da Universidade de Michigan chamam esse cenário teórico de “Higgsogênese”, nome inspirado na bariogênese, um teórico processo no universo primordial que teria criado mais bárions (partículas que incluem prótons e nêutrons) que antibárions.
A matéria escura é invisível e compõe aproximadamente 23% da densidade de energia do universo, enquanto a matéria bariônica (a matéria comum, que forma planetas, estrelas e as pessoas) compõe apenas 4%. O restante é preenchido pela energia escura, força responsável pela aceleração da expansão do universo.
“Com a descoberta do bóson de Higgs, a última peça do Modelo Padrão da física de partículas foi encaixada”, disse Géraldine Servant, do CERN. “Agora, é uma questão natural perguntar: será que o bóson de Higgs foi importante no início do Universo para ajudar a explicar dois enigmas observacionais que o Modelo Padrão não pode, como a origem da matéria escura e a assimetria entre matéria-antimatéria?

Assimetria matéria-antimatéria

Os físicos não acreditam que o bóson de Higgs tenha uma partícula equivalente de antimatéria, mas o Modelo Padrão (que explica as partículas e seus comportamentos) prevê a existência da antipartícula quando o universo era muito jovem. O novo estudo sugere que havia um desequilíbrio no número dessas partículas.
Como o Higgs interage com a matéria comum, o desequilíbrio numérico entre as partículas e antipartículas de Higgs pode ter se manifestado através de uma assimetria na quantidade de matéria e antimatéria. (Os físicos ainda não encontraram uma resposta satisfatória que explique o motivo da predominância da matéria sobre a antimatéria no universo atual).
Isso, então, explicaria porque o nosso universo é preenchido essencialmente pela matéria, e não pela antimatéria. [Antimatéria: o espelho do universo]

Explicação para a matéria escura?

O novo modelo também pode ajudar a explicar a origem da matéria escura. Os físicos mostraram que se o bóson de Higgs interagiu também com a matéria escura, ele pode ter gerado uma proporção entre os dois tipos de matéria exatamente igual à que vemos no universo hoje.
A nova interação proposta pode ajudar na detecção da matéria escura, que é impossível de ser vista diretamente.
A ideia é de que quando o Higgs decai e forma outras partículas no acelerador de partículas LHC, ele pode formar partículas indetectáveis de matéria escura. Os decaimentos do bóson de Higgs feitos no LHC ainda não foram tão bem estudados para sabermos se isso de fato acontece, no entanto.
 
By: Lucas Rabello

terça-feira, 22 de outubro de 2013

O que é Model-view-controller (MVC)?

 

Introdução
   Ei você, peço que pare com tudo que está fazendo, e vamos dar um novo passo na sua carreira profissional. Hoje vamos deixar de ser apenas programadores e vamos rumo ao profissionalismo.

O que é MVC?
   Atualmente, muitos softwares e frameworks estão utilizando do padrão MVC para o desenvolvimento de seus aplicativos/sites. Por isso, não fique preso a paradigmas, arquiteturas, padrões ou tecnologias, pois é de grande importância que você se atualize. E agora chegou a hora em que você irá entender o conceito e como funciona o “famoso” MVC. O MVC (Model, View e Controller) é uma arquitetura ou padrão que lhe permite dividir as funcionalidades de seu sistema/site em camadas, essa divisão é realizada para facilitar resolução de um problema maior.
Onde possuímos três camadas básicas, e cada uma delas, com suas características e funções bem definidas para facilitar a sua vida, caro programador.

Definição das camadas
Modelo
   O modelo (Model) é utilizado para manipular informações de forma mais detalhada, sendo recomendado que, sempre que possível, se utilize dos modelos para realizar consultas, cálculos e todas as regras de negócio do nosso site ou sistema. É o modelo que tem acesso a toda e qualquer informação sendo essa vinda de um banco de dados, arquivo XML.

Visão
   A visão (view) é responsável por tudo que o usuário final visualiza, toda a interface, informação, não importando sua fonte de origem, é exibida graças a camada de visão.

Controladora
   A Controladora (controller), como o nome já sugere, é responsável por controlar todo o fluxo de informação que passa pelo site/sistema. É na controladora que se decide “se”, “o que”, “quando” e “onde” deve funcionar. Define quais informações devem ser geradas, quais regras devem ser acionadas e para onde as informações devem ir, é na controladora que essas operações devem ser executadas. Em resumo, é a controladora que executa uma regra de negócio (modelo) e repassa a informação para a visualização (visão). Simples não?

Por que utilizar MVC?
   Com o aumento da complexidade dos sistemas/sites desenvolvidos hoje, essa arquitetura tem como foco dividir um grande problema em vários problemas menores e de menor complexidade. Dessa forma, qualquer tipo de alterações em uma das camadas não interfere nas demais, facilitando a atualização de layouts, alteração nas regras de negócio e adição de novos recursos. Em caso de grandes projetos, o MVC facilita muito a divisão de tarefas entre a equipe.
Abaixo serão listadas algumas das vantagens em utilizar MVC em seus projetos:
Facilita o reaproveitamento de código;
Facilidade na manutenção e adição de recursos;
Maior integração da equipe e/ou divisão de tarefas;
Diversas tecnologias estão adotando essa arquitetura;
Facilidade em manter o seu código sempre limpo;


Exemplo do funcionamento do MVC
   Com a teoria já compreendida, vamos imaginar a seguinte situação: Você desenvolveu um site, e esse site possui uma tela de login, onde o usuário digita seu login e sua senha, após a autenticação, caso ocorra tudo certo, o usuário acessa a área restrita do site, caso contrário é redirecionado novamente para a página de login repassando uma mensagem que a combinação de usuário e senha é inválida.

   Conseguiu imaginar essa situação? Beleza… Agora veja como isso acontece caso você ainda não tenha adotado a arquitetura MVC em seu site: Primeiramente, o usuário preenche o formulário com seu login e sua senha e pressiona o botão “Logar”.

   Depois disso, o formulário envia essas informações para um arquivo onde, no mesmo arquivo, você executa as seguintes etapas:
1. Armazena em variáveis os dados digitados pelo usuário;
2. Montam um comando SQL para selecionar o usuário;
3. Verifica se retornou alguma informação;
Se retornar alguma informação, armazena o usuário em uma sessão e redireciona para a área restrita;
Se não retornar nenhuma informação, redireciona para a página de login com uma mensagem notificando que a combinação digitada é inválida;

   Aparentemente esta tudo OK, tudo funcionado. Mas veremos agora como funcionaria se o seu site estivesse utilizando a arquitetura MVC:Os passos seguem os mesmo, primeiramente, o usuário preenche o formulário com seu login e sua senha e pressiona o botão “Logar”. Agora veremos algumas mudanças.

   Depois disso, o formulário envia essas informações para uma controladora, e essa controladora realizará as seguintes etapas:
1. A controladora (controller) carrega um modelo (model), e executa um método que realiza a validação;
2. No modelo (model) são executadas as seguintes tarefas:
Armazena as informações digitadas pelo usuário;
Realiza a consulta. Caso retornando verdadeiro (true) em caso de sucesso, ou falso (false) no caso da combinação das informações digitadas serem inválidas;
3. A controladora (controller) verifica o que o modelo retornou;

   Se retornar verdadeiro (true) armazena as informações em uma sessão e redireciona o usuário para visão (view) da área restrita;

   Se retornar falso (false) redireciona o usuário de volta para a tela (view) de login repassando a mensagem que a combinação digitada é inválida;

   Agora você pode ficar se perguntando, mas do modo que eu faço também funciona? Pode ser que sim, ma imagine ter que alterar a regra de negócio. Antes de utilizar MVC você precisaria abrir o arquivo que realiza todas as tarefas e localizar a sua regra, para depois alterar. No caso do MVC, você já sabe onde se encontra as suas regras de negócio, então você vai direto ao arquivo. Por isso que a maioria dos frameworks já vem com sua estrutura de diretórios pronta, facilitando a localização dos arquivos.

Considerações finais
   Deixo vocês refletindo sobre as vantagens de trabalhar com a arquitetura MVC, e saibam que toda a evolução, necessita de esforços. Nesse caso, você só vai precisar se dedicar um pouco nos estudos, para compreender o funcionamento e suas particularidades dessa arquitetura. Mas garanto que, assim todo aprendizado sempre é válido, vocês estarão dando um grande salto na sua carreira, se diferenciando dos demais concorrentes que ainda resistem em ao novo, pelo medo ou até mesmo por comodidade.

Fonte: Oficina da Net

CONTROLE DE ESTOQUES

    No comércio varejista, a relação VENDA x ESTOQUE é o ponto mais importante, e, quando bem trabalhada, a Empresa consegue equilibrar melhor o mix ideal entre os grupos de produtos e lojas.
   Fácil de dizer, difícil de realizar. Porque?
São muitos os fatores que influenciam esta relação e são muitos os profissionais responsáveis para que isso aconteça.

   Tudo começa no planejamento comercial da Empresa, onde são definidas as vendas, coberturas de estoque por grupo de produtos e margens.

   Aos compradores e estilistas, cabe se adequarem dentro do Plano de Sortimento Ideal Mensal,  que é o estudo do mix de produtos por grupo, faixas de preço e grade.

   Ao gerente comercial cabe a função de emitir e controlar cada pedido,pré distribuído por ítem/loja, e analisar semanalmente a venda, focando a relação venda x estoque por grupo de produtos e o desempenho de cada loja.

   Esta análise deve ser feita preferencialmente toda a 2ª feira onde participam compradores, estilistas, supervisão de loja e o gerente comercial e é de tal importancia  que qualquer tipo de interrupção deve ser evitada para não perder tempo e foco.

   Identificadas e acordadas as diferenças de desempenho PONTUAIS entre lojas e grupos, o supervisor imediatamente se comunica com os gerentes de loja, sinalizando os desempenhos e combina uma ação específica de vendas.

   O gerente de loja como EMPREENDEDOR  daquela unidade, distribui a meta pelos seus vendedores e COBRA DIÁRIAMENTE a performance daquele ítem ou grupo, apontadas pela supervisão e gerencia comercial, usando a sua criatividade como líder para estimular a equipe a alcançar os resultados esperados pela Empresa.

   Adotando esta ROTINA SEMANAL, a Empresa garante um melhor equilíbrio do estoque e vendas, e ainda consegue passar um feed back de mais qualidade aos compradores/estilistas.
Adotando esta ROTINA SEMANAL, a Empresa estará SEMPRE ALERTA às mudanças semanais de venda de cada grupo de produtos, podendo ajustar o Planejamento de Vendas e Compras com antecedência.

   Viver “apagando incêndios” é ruim, pois desgasta e desmotiva toda a equipe.

   Excessos de estoque constantes também  acabam com o capital de giro das Empresas.

   Implemente e mantenha esta ROTINA DE ANÁLISE, através do Relatório Venda x Estoque fazendo uma reunião semanal toda 2ª feira.

Por Varejando – Guy Sodré

ASPECTOS PRÁTICOS DA APLICAÇÃO DE MODELOS DE ROTEIRIZAÇÃO DE VEÍCULOS A PROBLEMAS REAIS

 

   O termo roteirização de veículos, embora não encontrado nos dicionários de língua portuguesa, é a forma que vem sendo utilizada como equivalente ao inglês “routing” (ou ”routeing”) para designar o processo para a determinação de um ou mais roteiros ou seqüências de paradas a serem cumpridos por veículos de uma frota, objetivando visitar um conjunto de pontos geograficamente dispersos, em locais pré-determinados, que necessitam de atendimento. O termo roteamento de veículos também é utilizado alternativamente por alguns autores (Cunha, 1997).
 
   Segundo Laporte et al. (2000) o problema de roteirização de veículos consiste em definir roteiros de veículos que minimizem o custo total de atendimento, cada um dos quais iniciando e terminando no depósito ou base dos veículos, assegurando que cada ponto seja visitado exatamente uma vez e a demanda em qualquer rota não exceda a capacidade do veículo que a atende.
 
   Quando a definição dos roteiros envolve não só aspectos espaciais ou geográficos, mas também temporais, tais como restrições de horários de atendimento nos pontos a serem visitados, os problemas são então denominados roteirização e programação de veículos (Cunha, 1997).
 
   De acordo com Assad (1988), a roteirização de veículos consiste em uma das histórias de grande sucesso da Pesquisa Operacional nas últimas décadas. Isto pode ser medido pelo expressivo número de artigos que vêm sendo publicados ao longo dos anos na literatura especializada, incluindo os anais de congressos da ANPET.
 
   O primeiro problema de roteirização a ser estudado foi o do folclórico caixeiro viajante (no inglês “traveling salesman problem” ou TSP), que consiste em encontrar o roteiro ou sequência de cidades a serem visitadas por um caixeiro viajante que minimize a distância total percorrida e assegure que cada cidade seja visitada exatamente uma vez.
  
   Desde então, novas restrições vêm sendo incorporadas ao problema do caixeiro viajante, de modo a melhor representar os diferentes tipos de problemas que envolvem roteiros de pessoas e veículos, entre as quais: restrições de horário de atendimento (conhecidas na literatura como janelas de tempo ou janelas horárias); capacidades dos veículos; frota composta de veículos de diferentes tamanhos; duração máxima dos roteiros dos veículos (tempo ou distância); restrições de tipos de veículos que podem atender determinados clientes.
 
   Problemas de roteirização de veículos são muitas vezes definidos como problemas de múltiplos caixeiros viajantes com restrições adicionais de capacidade, além de outras que dependem de cada aplicação.
 
   Problemas do tipo caixeiro viajante também são encontrados em outras áreas que não a logística ou operação de frotas, tais como em linhas de montagem de componentes eletrônicos, onde se busca encontrar, por exemplo, o roteiro de mínima distância para um equipamento cuja tarefa é soldar todos os componentes de uma placa eletrônica. O menor percurso total do equipamento para percorrer todos os pontos da placa está diretamente associado ao desempenho da linha (Souza, 1993).
 
   Sob a ótica de otimização, os problemas de roteirização de veículos, incluindo o caso particular do caixeiro viajante, pertencem à categoria conhecida como NP-difícil (do inglês “NP-hard”), o que significa que possuem ordem de complexidade exponencial. Em outras palavras, o esforço computacional para a sua resolução cresce exponencialmente com o tamanho do problema (dado pelo número de pontos a serem atendidos). A título de ilustração, até hoje não são conhecidas as respectivas soluções ótimas para algumas instâncias de problemas de roteirização com restrições de janelas de tempo com apenas 100 nós, propostos por Solomon (1986) e que vêm sendo utilizadas para a avaliação comparativa de novos algoritmos de solução propostos na literatura (Cunha, 1997).
 
   Em termos práticos, isto significa que não é possível resolver até a otimalidade problemas reais pertencentes à classe NP-difícil. Consequentemente, os métodos de solução de todos os softwares e aplicativos comerciais encontrados no mercado para roteirização de veículos são heurísticos, isto é, não asseguram a obtenção da solução ótima do ponto de vista matemático.
Essa complexidade matemática dos problemas de roteirização, assim como a sua relevância no contexto logístico atual, explicam o constante interesse em busca de novas estratégias de solução que vem sendo observado desde a década de 60, resultando em um número muito expressivo de artigos publicados na literatura especializada.
 
   Isto decorre do fato de que, sendo as estratégias de solução heurísticas, muitas vezes se apoiam em uma abordagem intuitiva, na qual a estrutura particular do problema possa ser considerada e explorada de forma inteligente, para a obtenção de uma solução adequada (Cunha, 1997). Assim, na maioria dos casos, as heurísticas propostas são bastante específicas e particulares, e carecem de robustez, isto é, não conseguem obter boas soluções para problemas com características, condicionantes ou restrições às vezes um pouco diferentes daquelas para as quais foram desenvolvidas.
 
   Em outras palavras, roteirização de veículos é uma área onde uma solução para um determinado tipo de problema e dados pode não ser adequada para outro problema similar, conforme apontado por Hall e Partyka (1997). Daí, em muitos casos, a necessidade de buscar soluções customizadas para cada problema.
 
   Por outro lado, o interesse e a demanda pela aplicação de modelos de roteirização para problema reais, através de softwares comerciais disponíveis no mercado, têm crescido muito nos últimos anos, em particular no Brasil, principalmente após a estabilização da economia, conforme discutido em detalhes por Cunha (1997). Entre as razões pode-se destacar as exigências dos clientes com relação a prazos, datas e horários de atendimento (principalmente entregas); o agravamento dos problemas de trânsito, acesso, circulação e estacionamento de veículos nos centro urbanos, em particular caminhões; o aumento da competição pelo mercado e a busca de eficiência trazidas pela eliminação da inflação; o custo de capital levando à redução de estoques e ao aumento da freqüência de entregas.

   Tem se observado em diversas aplicações, principalmente no caso brasileiro, que, embora a seleção e a implantação de softwares de roteirização tenha sido feita com cuidado, os benefícios obtidos com a sua utilização resultam aquém das expectativas iniciais, mesmo em se tratando de produtos consagrados no mercado.
 
   Isso decorre nem sempre da fragilidade dos algoritmos de solução incorporados nos softwares, na maioria das vezes extensivamente testados e validados, com inúmeras histórias de sucesso nos seus países de origem, mas principalmente de condicionantes locais e particularidades dos problemas que não podem ser considerados, assim como da fragilidade dos dados de entrada que alimentam os modelos.
 
   Deve-se destacar ainda dificuldades na etapa de escolha do produto. O fato da maioria desses produtos serem verdadeiras caixas pretas em termos dos seus algoritmos de solução, conforme apontado por Hall e Partyka (1997), e o pouco conhecimento técnico especializado por parte dos representantes locais, acabam levando a escolhas que posteriormente se mostram equivocadas, uma vez que os softwares nem sempre conseguem atender às necessidades para os quais foram adquiridos.
 
Autor: Dr Claudio Barbieri da Cunha

domingo, 20 de outubro de 2013

Automação de biorrefinarias de etanol de Segunda Geração


   A questão do modelo produtivo de Etanol, com a incorporação da rota biotecnológica no setor sucroenergético, e demonstrar como este processo demanda uma nova forma de medição e aplicar novas tecnologias de controle, rompendo a barreira das rotas químicas que operam nas usinas atuais, que certamente, através da inovação aplicada, traçará um novo cenário de produção de etanol para atender a demanda nacional quanto para oferta ao mercado global dentro das normas de sustentabilidade.

Usina de Cana-de-Açúcar

Introdução

   Muito temos falado sobre a evolução tecnológica do setor sucroenergético (usinas de açúcar, etanol e energia elétrica, derivada da cana de açúcar), estamos vivendo um momento de grandes pressões no setor, em função do aumento custo, principalmente CCT. Por outro lado, existe demanda excedente de Etanol, melhoria da qualidade do açúcar e aproveitamento energético da palha na geração de energia elétrica.
 
   Ocorre que a produção destes produtos energéticos, derivados da cana de açúcar, é processada no conhecido processo de combustíveis de 1ª geração, isto é, a matéria prima é cultivada, neste caso a cana.
Combustíveis de 1ª Geração
Figura 01 – Combustíveis de 1ª Geração
 
   Uma das evoluções que vem ocorrendo, é a discussão da produção de biocombustíveis de 2ª geração, que por conceito são oriundos de rejeitos ou detritos da biomassa, por exemplo, a palha e o bagaço de cana.
Refinaria e Biorefinaria
Figura 02 – Refinaria e Biorrefinaria
 
   Para continuarmos a entender a respeito da produção no setor sucroenergético, vamos descrever a diferença entre processos físicos, químicos e bioquímicos. Dizemos que a rota é física utilizamos somente o processo de alteração do estado, por exemplo, a moagem e a destilação (retificação) é um processo físico. Os processos de rota química são alterações estruturais internas, por exemplo, a hidrólise é um tipo, que é a quebra da molécula de hidrocarbonetos ou compostos inorgânicos pela água (BARCZA, 2012).
 
   E os processos bioquímicos são rotas que utilizamos de alterações do elemento a partir da incorporação ele elementos vivos para alterações na estrutura ou para o processamento em si do próximo elemento (carga) a processar, a fermentação é um excelente exemplo para isso.
 
   Outro ponto importante é entendermos a diferença entre refinarias e biorrefinarias.
   As refinarias são plantas de processos industriais que processam basicamente hidrocarbonetos, isto é, petróleo, este processo consiste em diversas fases, de rotas físicas e químicas, até a obtenção de combustíveis e derivados, utilizando tradicionalmente processos fisioquímicos.
 
   As biorrefinarias são plantas de processos industriais que utilizam biomassa, por exemplo, a cana de açúcar que uma vez moída nas moendas, fornece através desta biomassa caldo e bagaço para geração de energia. Também foram desenvolvidas sobre as rotas tecnológico físico-químico.
   Como a idéia desta introdução é apresentar conceitos de processos, concluímos que uma usina sucroenergética é uma planta de bioprocesso, isto é, uma biorrefinaria, com rotas físicas e bioquímicas de combustíveis de 1ª geração, tal qual como conhecemos hoje.
 
   Uma vez tendo todos estes conceitos básicos, vamos nos envolver então com o tema central, que é o desafio da automação e controle industrial na evolução destas plantas industriais, entendendo que a próxima fronteira nestes setores serão os bicombustíveis de 2ª geração, ou mais profundamente, da evolução dos controles de processo das rotas físicoquímicas atuais para conceitos biotecnológicos (BIOMINAS, 2004), mesmo na primeira geração.
 
Combustíveis de 2ª Geração
Figura 03 – Combustíveis de 2ª Geração
 
   Não queremos neste artigo ser simplista com o tema, pois a própria temática nos recorre ao conhecimento de biotecnologia e todo um arcabouço de conhecimento sobre o assunto, porém nossa intenção é ser simples e direto, com foco na automação destas plantas industriais em seus principais desafios.
  
   O ponto principal no processo de combustíveis de 2ª geração se refere à incorporação dos processos enzimáticos, isto é, transformar esta biomassa residual ou equivalente em material (carga), que tenha condições de fermentação.
 
   Um dos processos pesquisados, que estão sendo estudados para aplicação em escala, são os biorreatores enzimáticos, estes processos de forma simplificada quebram as moléculas de celulose, com isso pode-se fazer o processo fermentativo e seguir no processo de produção do etanol.
 
   Desse ponto de vista, ao invés de controlar apenas entradas e saídas, como atualmente na fermentação alcoólica de sacarose, é fundamental que se controle as condições em que estão presentes para a eficiência dos seres vivos responsáveis pelos processos fermentativos, como medidas biométricas desses, presença de invasores e aplique correções mais adequadas prontamente ao processo.
 
   Um dos pontos especialmente estudados no passado é métodos eficientes de esterilização do caldo, particularmente micro-ondas (VALSECHI, 2005). Atualmente com o aumento do domínio da energia nuclear, essa alternativa deverá ser mais bem estudada, pois possibilitaria a eliminação do tratamento ácido ou antibióticos que atacam além dos invasores, também os microorganismos responsáveis pela fermentação.
 
   Acontece, diante desses ataques, necessita consumir energia (açúcares) para recuperação de vitalidade e funcionalidade ou reprodução, o que implica em queda da eficiência global do processo fermentativo.
 
   Mas mais profundamente, a mudança do paradigma físico-químico atual para um paradigma biotecnológico, como avaliar as condições do desenvolvimento dos microorganismos durante o desenvolvimento dos processos biotecnológicos (como a fermentação),é um ponto de desenvolvimento que pode resultar em ganhos de eficiência global significativos no processo, além de permitir a aplicação de organismos geneticamente modificados (OGM), permitindo o melhor desenvolvimento da segunda geração, assim como novas tecnologias verdes (bioplásticos, bioquímicos, bioenergia, biofármacos etc., melhorando a sustentabilidade da atividade humana.
 
   Algumas iniciativas nesse sentido estão em desenvolvimento em vários setores pelo mundo, como o enorme desenvolvimento de tecnologias de imagem e som, que podem perfeitamente serem aplicadas nessa função. Mas além de possibilidades de medir, é importante desenvolver sistemas de interferência, principalmente preditivas, que evitem que esses organismos enfrentem sistemas de stress que resultem em consumo energético excessivo e aumentem sua vida útil.
 

Características do Processo

 
   Todo o arcabouço da produção de etanol, independentemente da rota utilizada ou a geração tecnológica, isto é, de primeira ou segunda geração, nos remete ao fato de que a cana desde seu corte já está contaminada e, desde o transporte, moagem e bombeamento do caldo, vão aumentando o número de contaminantes.
   A questão toda é que para se tratar a contaminação, hoje se utiliza a rota química e isto faz com que o processo utilize muita energia para que o nível de contaminação seja controlado, fazendo com que na ponta, haja uma grande perda de eficiência produtiva (AL SUKKAR, 2013).
 
   Caminhamos para outras tecnologias, como por exemplo, a rota bioquímica, a química verde, diminuído a agressão no tratamento, elevando a eficiência do processo.
   Além de toda a característica no tratamento do contaminante do caldo, temos um fator de processo que é o tempo, nos processos convencionais o modelo de controle se baseia na coleta de amostras, onde são levadas ao laboratório e após 24h, temos o nível de contaminantes para aí sim, fazermos uma interferência de controle para correção, porém neste tempo temos um ponto cego no processo, pois não temos condições de saber quantitativamente a correção necessária e perdemos eficiência energética até que haja essa correção.
 
   Entendendo a descrição técnica proposta como a produção de etanol, independente da geração, como foi dito, a questão fermentativa ganha um espaço de destaque no biocontrole proposto, pois para a engenharia de automação, o fator tempo de correção é um desafio a ser solucionado, pois há um atraso em resposta, interferindo diretamente no processo produtivo.
Fluxo de Processo da Produção de Etanol
Figura 04 – Fluxo de Processo da Produção de Etanol
 

Biorreatores

   Para conhecermos o processo central dos combustíveis de 2ª geração, vamos falar dos biorreatores, que são equipamentos que tem a função de catalisar reações, em nosso caso as enzimas por hidrólise.
Há diversos tipos de reatores e processos que compõem este equipamento, em nosso caso foge de nosso escopo descrever os mesmos, vamos falar sobre os principais efeitos que ocorrem nos mesmos, de forma genérica, que servirá de base para conhecermos as necessidades da automação.
Tipos de Biorreatores
Figura 05 – Tipos de Biorreatores
 
Os processos fermentativos para produção de enzimas neste biorreatores podem ser conduzidos basicamente de duas formas:
  • Biorreatores de fermentação submersa – Líquidos
  • Biorreatores de fermentação semi-sólida – Sólidos
No caso de nosso processo, que é a utilização do bagaço e palha da cana, os biorreatores de fermentação semi-sólida se aplicam.
 

Bioautomação

   Para falarmos sobre os desafios da medição e controle industrial nestes tipos de processos, vamos recordar alguns conceitos muito importantes da engenharia de automação.
 
   As medições industriais mais simples são as que se referem a grandezas físicas do processo, que agora se correlacionam com as chamadas rotas físicas de processos.
Medição Industrial Linear
Figura 06 – Medição Industrial Linear
 
 
   Estas medições utilizam sensores chamados transdutores que através do contato direto no processo, emitem um sinal elétrico, por exemplo, um sensor de temperatura em contato com um fluido, a temperatura uma vez variando, varia-se o sinal elétrico para o medidor.
 
   Quando dizemos transdutores é porque não estamos ainda falando em padrão de sinal de controle, linearidade, repetibilidade, entre outras características com medidor, que somente é possível através de uma eletrônica para qualificá-lo de transmissor de sinal, que ai sim teria todas as qualidades mínimas de uma medição de grandeza, naturalmente sendo bem aplicado nas características de cada processo.
 
   Estamos explanando todos estes termos porque uma das grandes características de se fazer medição em bioprocessos é que conceitos de medições físicas não são aplicados, ou pelos menos se aplicados, são limitados em função de gradientes fora de respostas padrões nas medições convencionais.
Medição Industrial Não Linear
Figura 07 – Medição Industrial Não Linear
 
   Uma das principais características da bioautomação, utilizaremos esta convenção em nosso caso, é que vamos ter um cenário de medições analíticas, porém fora de laboratório, isto é, em ambiente produtivo industrial, por exemplo, medição de oxigênio e pH, além da necessidade de medir variáveis que não são lineares.
 
   As medições não lineares entram num escopo de controle fora do convencional, pois, via de regra, a automação como conhecemos, com instrumentos e controladores, medem grandezas lineares, ou pelo menos os equipamentos tratam elas como tal, ficando relativamente fácil elaborar malhas de controle com algoritmos bem definidos.
 
   A partir destes pontos vamos descrever os desafios da automação nas biorrefinarias de 2ª geração.
 

Os Desafios

   A medição da contaminação do processo, no nosso caso, passa a ter um papel de destaque, focando na questão tempo de resposta, uma vez que necessitamos de 24h para obter uma curva de contaminante para promover uma atuação no processo.
 
   A instrumentação analítica ganha um papel de destaque, fundamentada num tripé, coleta, reação e resposta, equipamentos que podem medir esta carga com alta eficiência de entrega, com objetivo de diminuir o tempo para iniciar uma correção é a grande busca no quesito fermentativo. Entendendo então que os bioprocessos são caracterizados por variáveis não lineares, podemos relacionar as principais características que ocorrem nos biorreatores, onde nos remetem a buscar soluções para estes casos.
 
   As variações diversas de umidade e temperatura que ocorrem no processamento podem influenciar negativamente a o metabolismo na reação dentro do biorreator.
Instrumentação Convencional
Figura 08 – Instrumentação Convencional
 
   Como ocorre a respiração dos microorganismos, há calor no processo biorreativo, sendo assim, existe uma dificuldade de remoção do calor gerado nesta fase dos processos, interferindo nas variáveis de medição para controle.
 
   Contudo, as medições de temperatura, ph, umidade, oxigênio dissolvido e concentrações do substrato, são a fronteira para que haja condições de controle deste bioprocesso.
 
   Para melhorarmos o entendimento sobre estas necessidades de medição nestes processos, vamos conceituar os tipos de medição no campo da instrumentação e controle industrial.
 
   Como conceituado anteriormente as medições físicas de processos são relativamente simples de serem feitas, uma vez que há padrões definidos até mesmo para linearização de sinais, podemos colocar estas medições no campo na instrumentação industrial.
 
   Porém na instrumentação industrial temos um campo de estudos e aplicações chamadas de instrumentação analítica, onde fazemos medições baseadas em análises, tais como, oxigênio, cor, pH, ou seja, variáveis de características fisioquímicas, porém que necessitam dos chamados comparativos amostrais.
 
   A instrumentação analítica, também conhecida de laboratório, é conhecida assim, pois normalmente são medições que ocorrem por amostragem, recolhendo parte de um material e analisando em equipamentos de análise, estas medições são chamadas de off-line e tem como característica um tempo grande para o resultado da medida, conhecida com timedelay.
Figura 09 - Instrumentação Analítica
Figura 09 – Instrumentação Analítica
 
   A instrumentação analítica também pode ser enquadrada como in-line, isto é, com medição em linha no processo, porém normalmente são medições que exigem instrumentos sofisticados e manutenção cara do medidor, isto quando não há limites de medidas, pois estes instrumentos normalmente são calibrados para processos específicos.
 
   Em função de todos estes elementos, da instrumentação industrial a analítica, não queremos aqui esgotar o assunto, muito menos em definir os melhores meios de aplicação, como este artigo tem o objetivo de focar o assunto, entendemos que para que estes desafios possam ser mitigados, temos que caminhar para um complemento além da instrumentação analítica, uma vez que esta tem por objetivo fazer a medição, porém temos a questão do controle, que este sim, por se tratar de biovariáveis não pode ser modelado por PID’s (Proporcional, Integral e Derivativo) convencionais.
 
   Para preencher esta lacuna, vamos tratar de dois assuntos que cabem como complementos desta nossa bioautomação, os softsensores e os modelos APC, controle avançado de processos.
 

Os Softsensores

   Os softsensores também conhecidos como sensores virtuais, são ferramentas avançadas da engenharia da automação.
 
   A idéia é que estes softsensores, que são na verdade modelos matemáticos se comportem como inteligências de sistema, uma vez que não conseguimos por modelos convencionais fazer leituras e atuações em processos complexos, como este de um biorreator. Outro ponto de aplicação dos sensores virtuais é quanto não se consegue implantar fisicamente um sensor em determinado ponto de um processo industrial, porém conhece-se a “curva” deste processo, que foi modelada em um laboratório.
Figura 10 – SoftSensor
Figura 10 – SoftSensor
 
   Uma vez tendo esta curva, isto é, como este processo se comporta numa linha do tempo, mesmo que tenha n variáveis, pode-se “programar” este sensor para funcionar como estivesse conectado fisicamente ao processo, sendo que o mesmo pode emitir sinais para um controle de válvula, motor, ou qualquer outro elemento para uma atuação fora de um padrão físico ou químico, neste caso nosso um bioprocesso, com particularidades específicas.
 
   Estes sensores uma vez definidos que irão controlar um processo, chamamos este modelo de controle inferencial, isto é, você tem um ponto de medição de referência, este alimenta o softsensor que modela um controle matematicamente, e faz uma saída, isso chamou de controle inferencial, é um estado dinâmico do processo conhecido.
 
   Os modelos matemáticos podem ser diversos, mínimos quadrados, regressão, correlação, arvore de decisões entre outros.
Para se construir um sensor virtual, que normalmente será programado em um controlador programável, deve-se seguir alguns passos básicos:
  • Coletar dados do processo e seu comportamento dinâmico
  • Pré-processamento eliminando ruídos do processo
  • Construção do modelo e escolha das variáveis de inferência
  • Validação do modelo (comparar ao processo conhecido)
  • Instalação na planta e monitoração on-line
   Não temos a intenção aqui de explicar todo o funcionamento de um algoritmo destes, porém o conceito é muito importante para que possamos concluir a solução deste desafio.
 

APC – Controle Avançado de Processo

   Os APC (Advanced Process Control) ou Controle Avançado de Processos, são ferramentas de automação que complementam situações onde precisamos obter controle complexos e/ou otimizados.
 
   O modelo mais utilizado para controle de processo na indústria hoje é o algoritmo PID (Proporcional Integral e Derivativo), que tem como principal objetivo manter uma variável de controle dentro de um SP (set point) pré ajustado, com correções deste erro dentro de um tempo aceitável para o processo.
Figura 11 - Conceito de APC
Figura 11 – Conceito de APC
 
   Ocorre que como já descrevemos anteriormente, os bioprocessos tem características de elevadas constantes de tempo e não linearidade em respostas, com isso a aplicação simplesmente de um modelo PID, não consegue fazer uma correção numa curva especial de controle, como de um biorreator por exemplo.
 
   O APC não substitui o PID, isso é muito importante frisar, pois há confusões a este respeito, assim como existem modelos que atribuem o APC como com complemente avançado de controle, como, por exemplo, as lógicas nebulosas, ou simplesmente Fuzzy.
 
   Com isso concluímos que, o APC é um complemento do PID onde o mesmo não é substituído pelo PID, sua aplicação se dá em processos complexos, como no caso de biocontrole, e também como ferramenta de otimização de processo, assunto este que foge do escopo deste artigo.
 

Solução Proposta

   Pontuando que os principais desafios de nosso processo, tempo de resposta na medição de contaminantes, não linearidade de medições analíticas nas reações enzimáticas e controle não linear de processo, a tecnologia que chamaremos de bioautomação e biocontrole passa a ser a resposta a estes desafios na entrega de uma solução exeqüível.
 
   Na questão da medição do contaminante, destacamos a aplicação de um equipamento de medição analítica do caldo, onde através da coleta de amostras em pontos de carga do processo, podemos identificar de forma antecipada o nível de contaminação da carga.
 
   O equipamento proposto é um sistema automatizado de análise de ácido lático, que em nosso caso vamos descrevê-lo como SAA, o retorno do processamento é a quantidade de ácido lático da amostra, que por correlação num sistema computacional em modelagem de processo, temos uma condição de fermentação, que por prevenção poderemos intervir na correção da contaminação, tudo isso em 30 minutos, ante 24h no processo convencional (AL SUKKAR, 2013).
Figura 12 - Princípio de Funcionamento do SAA
Figura 12 – Princípio de Funcionamento do SAA
 
   Neste processo de biocontrole, através da resposta da amostra, o equipamento pode enviar um sinal para o PLC (Controlador Lógico Programável) ou DCS (Sistema Digital de Controle Distribuído), que uma vez programado, pode tomar automaticamente ações de controle, fazendo com que a correção por prevenção tenha ganhos de eficiência energética, como podemos ver abaixo um modelo de aplicação.
Figura 12 - Comparativo de controle convencional e com a aplicação do SAA
Figura 12 – Comparativo de controle convencional e com a aplicação do SAA
 
   Desta forma destacamos que no modo convencional, em função do atraso em resposta para iniciar uma correção, teremos um alto consumo de insumos, porém com a aplicação do SAA podemos interferir no processo, que em nosso caso apresentado temos cerca de 50% de ganho.
 
   No que tange ao controle do biorreator, uma vez que definimos nossos conceitos sobre bioprocessos, especificamente para produção de biocombustíveis de 2ª geração, vimos que existem desafios que devem ser solucionados na área de controle do processo.
 
   De forma a simplificar o entendimento sobre nosso assunto, vemos que as variáveis da biorreação devem ser tratadas de forma especial, uma vez que são analíticas, dependente de tempo que geram atrasos em respostas e não são lineares.
 
   Vamos montar um pequeno processo baseado em nosso reator proposto, a idéia não é dar uma solução única, mas mitigar um conceito de solução apresentada na realidade de um sistema de biorreação. Vejamos abaixo um fluxograma com os instrumentos relacionados numa legenda que indica a função básica dos mesmos.
 
   O modelo matemático e de controle proposto é conceitual está demonstrado e descrito em seqüência.
Figura 14 - Solução Proposta
Figura 14 – Solução Proposta
 
Legenda de Instrumentos:
  • FT1 – Transmissor de vazão gás entrada do biorreator
  • FT2 – Transmissor de vazão gás saída do biorreator
  • TT1 – Transmissor de temperatura gás entrada do biorreator
  • TT2 – Transmissor de temperatura gás saída do biorreator
  • AT1 – Transmissor de umidade gás entrada do biorreator
  • AT2 – Transmissor de umidade gás saída do biorreator
  • AT3 – Transmissor de O2 saída do biorreator
  • AT4 – Transmissor de CO2 saída do biorreator
  • AT5 – Transmissor de pH tanque fermentação
  • TT3 – Transmissor de temperatura tanque fermentação
  • AT6 – Transmissor de oC alcoólico tanque fermentação
  • LT1 – Transmissor de nível tanque biorreator
  • LT2 – Transmissor de nível tanque fermentador
  • XV1 – Válvula de controle entrada de carga
  • XV2 – Válvula de controle saída biorreator
  • XV3 – Válvula de controle saída fermentador
   A solução proposta acima nos mostra uma instrumentação industrial associada a uma instrumentação analítica, de pH, e O2 e CO2 nos gases.
 
   Estas medidas associadas a curvas conhecidas podem ser correlacionadas a outras variáveis que ocorrem no processo de hidrólise dentro do biorreator.
 
   Não faz parte de nosso escopo mostrar como se monta curvas de reação, porém é necessário ter estas para montar os modelos matemáticos, conforme explicado anteriormente para compor os softsensores. Segue a solução em forma de um blocograma de controle, o importante é entender como associar medição física do processo com elementos para o biocontrole, neste caso os analíticos e usando os modelos conhecidos para ajustar a não linearidade nos softsensores.
 
   Com isso formulador pode-se aplicar APC para liberação entre tanques e cargas, dando seqüência a um processo.
 
   A composição do processo de controle se dá por funções avançados no controlador programável, hoje dispomos de uma gama grande de funções até mesmo pré-definidas. A qualidade do controle está intimamente ligado a precisão da medida e processo é um espelho da modelagem que se faz no softsensor, por isso é imprescindível sua validação no laboratório para teste do modelo.
 

Conclusão

   É fato que as usinas sucroenergéticas como conhecemos hoje passarão por uma evolução e alterações em suas rotas.
   
   Não é entendível simplesmente aumentar somente áreas de plantios para continuarmos com rotas de 1ª geração, pois temos conhecimento apesar de necessitar muita pesquisa aplicada na área que estamos descrevendo.
 
   Tão ou mais importante frisar é que a mudança de rota é muito importante, isto é, temos que re-pensar o processo inclusive de primeira geração, antes mesmo que imaginar a segunda geração como solução produtiva, uma vez que ainda temos grandes perdas no processo fermentativo, onde a aplicação de novos conceitos, como a bioautomação, poderão certamente contribuir para um novo desenho produtivo de nossas bioplantas.
 
   Esperamos que este artigo esclareça o conceito de colocar em prática a própria evolução da automação, pois somente com ela poderemos dar forma industrial as pesquisas que estão em desenvolvimento e que certamente serão aplicadas em nossas usinas.
 
   Não queremos esgotar o assunto, mesmo porque está escrito de forma simples e direta para uma formação até mesmo de opinião e que abra novos questionamentos e sugestões de como poderíamos aplicar novas técnicas de controle.
 
   Seguramente termos como bioprocesso e bioautomação, farão cada vez mais parte de nosso dia a dia nos projetos de engenharia, com o objetivo de sermos uma civilização inquieta pela busca e o aperfeiçoamento de novas formas de melhorar o mundo em que vivemos, em especial pela busca da energia.