Tecnologia

nióbio

O Brasil é o maior produtor mundial de nióbio, concentrando aproximadamente 98% das reservas ativas do planeta. Utilizado na composição de ligas metálicas, principalmente de aço de alta resistência, esse elemento químico tem um espectro de aplicações tecnológicas quase ilimitado, que vai de telefones celulares a turbinas de aviões. Mas praticamente toda a produção brasileira é destinada à exportação, na forma de commodity.

Outra substância de que o país dispõe em grande quantidade, mas pouco usa, é o glicerol, um subproduto de reações de saponificação de óleos ou gorduras na indústria de sabões e detergentes ou de reações de transesterificação na indústria de biodiesel. Neste caso, a situação é até pior, porque o glicerol é, muitas vezes, tratado como rejeito, de difícil descarte.

Um estudo realizado na Universidade Federal do ABC (UFABC) juntou o nióbio e o glicerol em uma solução tecnológica promissora: a produção de células a combustível. A pesquisa foi publicada como matéria de capa pela revista ChemElectroChem: Niobium enhances electrocatalytic Pd activity in alkaline direct glycerol fuel cells.

“Em princípio, a célula funcionará como uma pilha, alimentada por glicerol, para recarregar pequenos dispositivos eletrônicos, como telefones celulares ou laptops, podendo ser usada em regiões onde não há linha de transmissão elétrica. Depois, a tecnologia poderá ser adaptada para fornecer energia elétrica a automóveis e até a pequenas residências. Não há limites para aplicações no longo prazo”, disse à Agência FAPESP o químico Felipe de Moura Souza, primeiro autor do artigo. Souza é tem bolsa da FAPESP na modalidade Doutorado Direto.

A célula converte em energia elétrica a energia química da reação de oxidação do glicerol [C3H8O3] no ânodo e de redução do oxigênio [O2] do ar no cátodo, resultando, na operação completa, gás carbônico e água [veja, na figura, a representação esquemática do processo]. A reação total é C3H8O3 (líquido) + 7/2 O2 (gasoso) → 3 CO2 (gasoso) + 4 H2O (líquido).

“O nióbio [Nb] entra no processo como um cocatalisador, coadjuvando a ação do paládio [Pd], utilizado como ânodo na célula a combustível. A adição do nióbio possibilita reduzir pela metade a quantidade de paládio, barateando o custo da célula. Ao mesmo tempo, aumenta expressivamente sua potência. Mas sua principal contribuição é diminuir o envenenamento eletrocatalítico do paládio, resultante da oxidação de intermediários fortemente adsorvidos como o monóxido de carbono, no funcionamento de longa duração da célula”, explicou Mauro Coelho dos Santos, professor da UFABC, orientador do doutorado direto de Souza e coordenador do estudo em pauta.

Do ponto de vista ambiental, que mais do que nunca deve ser um critério determinante nas escolhas tecnológicas, a célula a combustível alimentada por glicerol é considerada uma solução virtuosa, por poder substituir motores a combustão baseados em combustível fósseis.

Além de Souza e Santos, o estudo teve a participação de Paula Böhnstedt, apoiada pela FAPESP com bolsa de iniciação científica, de Victor dos Santos Pinheiro, apoiado pela FAPESP com bolsa de doutorado , de Edson Carvalho da Paz, de Luanna Silveira Parreira, apoiada pela FAPESP com bolsa de pós-doutorado e de Bruno Lemos Batista, apoiado pela FAPESP com Auxílio a Jovens Pesquisadores.

O artigo Niobium enhances electrocatalytic Pd activity in alkaline direct glycerol fuel cells pode ser acessado em https://onlinelibrary.wiley.com/doi/abs/10.1002/celc.201901254.

José Tadeu Arantes
Agência FAPESP

Este texto foi originalmente publicado por Agência FAPESP de acordo com a licença Creative Commons CC-BY-NC-ND. Leia o original aqui.

Cientistas paulistas e mexicanos

O combate a doenças transmitidas por mosquitos – como dengue, febre amarela, zika e chikungunya – é um tema que mobiliza pesquisadores do meio acadêmico e também de empresas. No Brasil e no México, países onde essas arboviroses têm alta incidência, produtos inovadores estão sendo desenvolvidos para combater o Aedes aegypti.

Alguns desses projetos foram apresentados durante um workshop promovido pela FAPESP e pelo International Development Research Centre (IRDC), instituição mantida pelo governo canadense que apoia pesquisas em países em desenvolvimento.

“Esse encontro possibilitou um intercâmbio entre empresas e pesquisadores apoiados pela FAPESP, em São Paulo, e pelo IDRC, no México. Para nós, é de alta prioridade o desenvolvimento de parcerias com fundações e agências na América Latina. Por isso, é estratégico trabalhar com a FAPESP”, disse Roberto Bozzano, especialista sênior de programas do IDRC.

As empresas paulistas são apoiadas por meio do Programa Pesquisa Inovativa em Pequenas Empresas (PIPE) e desenvolvem tecnologias para combater o mosquito, uma das ações apontadas por especialistas como estratégicas para o combate às arboviroses.

Rodrigo Perez, presidente da BR3, apresentou o DengueTech, um biolarvicida à base de bactérias – inofensivas para humanos e animais – capazes de combater larvas. O projeto contou com apoio da FAPESP e da Financiadora de Inovação e Pesquisa (Finep) por meio do Programa PAPPE/PIPE Subvenção.

O produto foi desenvolvido em parceria com a Fiocruz e já está disponível no mercado. É composto por uma forma modificada do BTI (sigla para Bacillus thuringiensis, sorotipo israelensis).

Os tabletes podem ser aplicados em pratinhos de plantas, caixas d’água e mesmo em água potável, locais que podem funcionar como criadouros do mosquito.

“O produto é altamente seletivo para o A. aegypti e, portanto, não afeta abelhas ou outros insetos. A ideia é que ele seja usado tanto em campanhas de saúde pública quanto em residências, pelas famílias, transformando pequenos criadouros em armadilhas contra o mosquito. Esse controle pode ser feito de forma sustentável e preventiva, ao longo de todo o ano, de modo a suprimir o vetor das doenças”, disse Perez. Um pequeno tablete do DengueTech tem ação de até 60 dias.

Inseticidas biodegradáveis

Também aplicado nos potenciais criadouros do mosquito, o AMS, tecnologia criada pelo Matlabs, de Sorocaba, forma uma película sobre a água que impede o desenvolvimento do mosquito, sendo eficaz em todas as fases do ciclo de vida. A pesquisa contou com apoio da FAPESP.

O líquido, à base de compostos naturais, é dispensado por um dosador, programado para liberar quantidades suficientes para proteger a água antes de o produto ser degradado.

“Desenvolvemos um inseticida que pode ser usado em sistemas de água potável. O produto não intoxica o inseto, mas causa a morte por uma ação majoritariamente física. Ainda está em fase de experimentos que visam provar a segurança de aplicação. Mas os ativos são biodegradáveis e não contaminam o ambiente”, disse Gedeão Klarosk Perez, fundador da empresa.

O desenvolvimento de inseticidas alternativos é importante porque a maior parte dos produtos disponíveis no mercado é poluente e pode gerar resistência nos mosquitos. O tema foi abordado por cientistas da empresa Promig, sediada em Engenheiro Coelho (SP), que desenvolveu uma tecnologia para avaliar o potencial de resistência dos vetores.

A equipe fez um estudo em 130 cidades do Brasil para avaliar como a resistência dos mosquitos variava de um município para o outro. Esse tipo de conhecimento permite escolher o produto mais eficaz para uma determinada região antes de iniciar campanhas de saúde pública, por exemplo.

A pedido do Ministério da Saúde e com apoio, a empresa desenvolveu um teste que mostra a resistência a diferentes produtos disponíveis no mercado e indica o mais adequado para cada cidade pesquisada.

“Coletamos os ovos do mosquito em campo e levamos para o laboratório para testes. Uma molécula chamou nossa atenção por promover uma baixa mortalidade. Curiosamente, ela tem o mesmo mecanismo de ação de um outro produto largamente usado em campanhas de combate ao mosquito no Brasil inteiro”, disse Guilherme Trivelatto, consultor de manejo de vetores da Promip.

Repelentes, tinta e tela

O desenvolvimento de novos repelentes é explorado por algumas empresas e grupos de pesquisa que participaram do workshop. A Nanomed, de São Carlos, desenvolveu um sistema de liberação controlada de óleo essencial para ser usado em repelentes de mosquito. O produto aguarda autorização da Agência Nacional de Vigilância Sanitária (Anvisa) para ser comercializado.

“É um ativo completamente novo para esse tipo de uso. Por meio de nanotecnologia, ele é liberado aos poucos na pele e protege por mais tempo”, disse Amanda Luizetto dos Santos, sócia-fundadora da empresa, que teve apoio da FAPESP e da Finep por meio do Programa PAPPE/PIPE Subvenção.

O encapsulamento de outro óleo essencial, de citronela, é objeto de estudo de um projeto apoiado pela FAPESP e conduzido por Vânia Rodrigues Leite e Silva, professora do Instituto de Ciências Ambientais, Químicas e Farmacêuticas da Universidade Federal de São Paulo (ICAQF-Unifesp), em Diadema.

Já a empresa Chemyunion realiza simulações computacionais para chegar a moléculas com potencial para servirem como princípio ativo de novos repelentes. Após 100 mil compostos candidatos, os pesquisadores chegaram a cinco que deverão ser testados em breve.

Os pesquisadores mexicanos apoiados pelo IDRC apresentaram uma tinta que libera inseticida encapsulado por meio de nanotecnologia, protegendo residências e escolas públicas por pelo menos um ano e meio. O projeto foi apresentado por Jorge Méndez, pesquisador do Hospital Infantil do México, e Mauro Corral, da empresa Codequim, que estão analisando a eficácia e a segurança do produto para comercialização no México.

Outro projeto apoiado pelo IDRC foi apresentado por Pablo Manrique e Norma Pavia, pesquisadores da Universidad Autónoma de Yucatán, Rosa Mendez Vales, da Secretaria de Saúde de Yucatán, e Alfonso Flores Leal, da empresa Public Health Supply and Equipment de Mexico. Eles desenvolveram uma tela especial para portas e janelas. Além de impedir a entrada de insetos nas residências, o produto tem um inseticida em sua composição que mata os mosquitos, aumentando ainda mais sua eficiência.

A comitiva mexicana foi composta ainda por Federico Gómez, especialista em epidemiologia e controle de doenças transmitidas por vetores, e Erick Azamar Cruz, do Hospital de Alta Especialidade de Oaxaca.

Linhas transgênicas de mosquitos

A pesquisadora do Instituto de Ciências Biomédicas (ICB) da Universidade de São Paulo (USP) Margareth Capurro apresentou no evento estudos voltados ao desenvolvimento de mosquitos transgênicos e defendeu a necessidade de combinar diferentes estratégias para o combate às arboviroses.

“É preciso um controle integrado. Não será apenas uma abordagem que vai dar conta das doenças. No entanto, a erradicação [dos mosquitos] é um ponto central do controle”, disse.

Segundo a pesquisadora, além da erradicação são necessárias medidas de educação da população, desenvolvimento de vacinas, eliminação de potenciais criadouros, como pneus, garrafas e depósitos de lixo, e uso de larvicidas e inseticidas (leia mais em: agencia.fapesp.br/28078).

André Julião
Agência FAPESP

Este texto foi originalmente publicado por Agência FAPESP de acordo com a licença Creative Commons CC-BY-NC-ND. Leia o original aqui.

minerais magnéticos

Pesquisadores das universidades federais de São Paulo (Unifesp) e de São Carlos (UFSCar) estão desenvolvendo materiais magnéticos que poderão auxiliar na remoção de petróleo cru da superfície da água em casos de derramamentos como o que atingiu as praias do litoral brasileiro este ano.

Em testes de laboratório, esses materiais híbridos – compostos por partículas ferromagnéticas em escala nanométrica (da bilionésima parte do metro) e resíduos de biomassa – mostraram ser capazes de remover petróleo bruto e outros tipos de óleo, como de motor de navios, com mais de 80% de eficácia.

Os resultados do projeto da Unifesp, desenvolvido com apoio da FAPESP, serão testados em experimentos de campo no Ceará. O objetivo é avaliar a eficiência do material na remoção do óleo presente nas praias do estado nordestino.

“Essas partículas nanomagnéticas permitem não só a limpeza das praias como também a recuperação do petróleo pelas empresas no caso de vazamentos. Outra vantagem é que são ambientalmente amigáveis, pois são feitas de compostos naturalmente encontrados na natureza”, disse à Agência FAPESP Geórgia Labuto, professora da Unifesp, campus de Diadema.

As partículas desenvolvidas pelo grupo da Unifesp reúnem em sua composição magnetita (um mineral magnético) e resíduo de biomassa de levedura proveniente de processos de fermentação na indústria de etanol. A associação dá origem a bionanocompósitos – materiais híbridos com escala nanométrica e obtidos de fontes renováveis – e, segundo os pesquisadores, permite reduzir o custo de produção do material e aumentar a quantidade de óleo que pode ser removida.

Isso porque ao depositar as partículas de magnetita sobre a superfície da biomassa foi possível manter a propriedade magnética e, ao mesmo tempo, aumentar a área superficial de contato entre o material magnético e o óleo.

“Além de contribuir para a economia, os resíduos agroindustriais permitem produzir uma massa maior de material magnético com menor quantidade de reagentes. Ao aplicar um campo magnético em um meio aquoso em que essas partículas estão dispersas é possível removê-las junto com um fluido aderido a elas, como o petróleo”, explicou a pesquisadora.

Capacidade de remoção

Em um estudo publicado no Journal of Environmental Management, os pesquisadores avaliaram a capacidade dos bionanocompósitos de remover da água manchas de óleo de motor novo, usado e de petróleo com grau API 28 º – classificado como óleo leve e de alto valor comercial segundo escala criada por American Petroleum Institute e National Bureau of Standards (quanto maior a densidade do óleo, menor o grau API).

Os resultados indicaram que o material foi capaz de remover, após o contato de dois minutos, entre 55% e 89% da quantidade de petróleo e de óleo de motor novo e 69% do óleo de motor usado presente nas amostras.

Os pesquisadores também constataram que a remoção desses compostos da água pelo material é um fenômeno predominantemente físico, em que a força de atração exercida por um campo magnético, como o produzido por um ímã, é tão intensa que arrasta as partículas e, consequentemente, o óleo aderido à sua superfície.

No caso de derramamentos, a ideia dos pesquisadores é usar as partículas para remover o petróleo bruto após o óleo ter sido retirado da superfície da água por skimmers – uma espécie de esteira acoplada ao navio que carrega o óleo derramado no mar misturado com água e detritos para o interior da embarcação.

“Nosso objetivo é usar o material para coletar o óleo já recolhido e separá-lo da água”, afirmou Labuto.

O grupo de pesquisadores da Unifesp também tem usado cortiça em pó para desenvolver os bionanocompósitos.

Em outro estudo, também publicado no Journal of Environmental Management, foi avaliada a eficácia dos dois tipos de partículas – um com biomassa de levedura e outro com cortiça em pó – na remoção de petróleo com diferentes graus API, incluindo óleos pesados (API 10) e leves (API 45) da superfície de água doce e marinha, com e sem agitação da superfície aquosa.

Os nanomateriais magnéticos expostos ao óleo na água foram retirados por um ímã de neodímio.

Os resultados das análises indicaram que os nanocompósitos magnéticos de biomassa de levedura apresentaram taxas de recuperação de óleo mais altas. Além disso, a remoção do óleo por esse material magnético aumenta à medida que o API diminui. Dessa forma, é possível prever a quantidade possível de ser recuperada de acordo com a densidade.

“Quanto maior o grau API, mais leve e maior o valor comercial do petróleo”, explicou Labuto.

Variando a massa de bionanocompósito, foi possível remover 100% de todos os tipos de petróleo estudados, independentemente do grau API.

“Os compósitos magnéticos podem ser usados em vários ciclos de remoção de óleo, antes da recuperação, e ainda após a recuperação, uma vez que mantêm suas propriedades magnéticas”, ressaltou Labuto.

Outros materiais

Outro grupo de pesquisadores da UFSCar tem desenvolvido, no âmbito de um projeto de pós-doutorado apoiado pela FAPESP, matrizes híbridas nas formas de pó e membrana, compostas de ferrita de cobalto também em escala nanométrica.

Os pós foram sintetizados usando resíduos de mesocarpo de coco, bagaço de cana, serragem e aguapé. Já as membranas foram preparadas usando polímero polietersulfona.

Em um estudo também publicado no Journal of Environmental Management, em colaboração com colegas da Universidade Federal de Sergipe (UFS), os pesquisadores avaliaram em laboratório a eficácia da remoção de petróleo bruto pesado da superfície da água por atração magnética desses materiais.

Os resultados das análises indicaram que o material na forma de pó à base de bagaço de cana apresentou maior eficiência na remoção do óleo, com capacidade de adsorção de 85%, e que isso pode ser atribuído à natureza fibrosa da matéria-prima usada.

Já as membranas foram capazes de remover uma quantidade de óleo equivalente a 35 vezes a sua massa.

Quando os dois materiais foram usados simultaneamente, foi possível remover uma quantidade de óleo equivalente a 35 vezes a sua massa e aumentar a capacidade de adsorção do pó à base de bagaço de cana em 23%.

Essa alta capacidade de adsorção está relacionada a uma barreira de retenção formada pelo material em pó, que impediu a propagação da mancha de óleo e permitiu sua remoção homogênea, destacaram os autores.

“Também observamos que a distribuição das nanopartículas de ferrita de cobalto nos resíduos de biomassa aumentou a velocidade de remoção do óleo”, disse Caio Marcio Paranhos da Silva, professor da UFSCar e coordenador do projeto.

“Os materiais foram capazes de remover o óleo da superfície da água das amostras em apenas dois segundos”, afirmou.

Por meio de um estágio de pesquisa na Universidade de Aveiro, em Portugal, também com apoio da FAPESP, o pós-doutorando José Arnaldo Santana Costa, supervisionado por Paranhos, pretende agora incorporar nanopartículas de ferrita de cobalto em uma partícula obtida a partir de casca de arroz que desenvolveu durante seu doutorado .

O objetivo é produzir uma nova membrana capaz de remover não só óleo cru da superfície da água como também hidrocarbonetos policíclicos aromáticos (HPAs). Dessa forma, seria possível não só remover o petróleo pesado de derramamentos, mas também diminuir sua toxicidade.

“Essas substâncias, que estão presentes no óleo pesado, são muito tóxicas, têm potencial carcinogênico e representam um grande risco para as pessoas que têm se voluntariado a remover o petróleo das praias do Nordeste sem proteção adequada”, disse Silva.

O artigo Oil spill cleanup employing magnetite nanoparticles and yeast-based magnetic bionanocomposite (DOI: 10.1016/j.jenvman.2018.09.094), de Karina B. Debs, Débora S. Cardona, Heron D.T. da Silva, Nashaat N. Nassar, Elma N.V.M. Carrilho, Paula S. Haddad e Geórgia Labuto, pode ser lido em www.sciencedirect.com/science/article/pii/S0301479718311046.

O artigo A comparison study of cleanup techniques for oil spill treatment using magnetic nanomaterials (DOI: 10.1016/j.jenvman.2019.04.106), de D.S.Cardona, K.B.Debs, S.G.Lemos, G.Vitale, N.N.Nassar, E.N.V.M.Carrilho, D.Semensatto e G.Labuto, pode ser lido em www.sciencedirect.com/science/article/pii/S0301479719305730.

E o artigo Removal of heavy crude oil from water surfaces using a magnetic inorganic-organic hybrid powder and membrane system (DOI: 10.1016/j.jenvman.2019.06.050), de Graziele da Costa Cunha, Nalbert C. Pinho, Iris Amanda Alves Silva, José Arnaldo Santana Costa, Caio M.P. da Silva e Luciane P.C. Romão, pode ser lido em www.sciencedirect.com/science/article/pii/S0301479719308527.


Elton Alisson
Agência FAPESP

Este texto foi originalmente publicado por Agência FAPESP de acordo com a licença Creative Commons CC-BY-NC-ND. Leia o original aqui.

sistemas quânticos são apresentadas por cientistas

Fenômenos físicos e a manipulação da luz para a transmissão de informação foram assuntos de uma sessão de apresentações na FAPESP Week France que reuniu pesquisadores do Estado de São Paulo e da Universidade de Lyon.

Os pesquisadores abordaram fotônica integrada, nanotecnologia e emaranhamento quântico, entre outros campos que têm permitido ampliar as possibilidades de pesquisa em sistemas ópticos de comunicação e que poderão apoiar o desenvolvimento de computadores quânticos.

“Características quânticas inspiram novos conceitos em ciência da informação, em um cenário no qual a eficiência na computação, no armazenamento e no transporte de informação pode ser ampliada”, disse Paulo Nussenzveig, professor titular no Instituto de Física da Universidade de São Paulo (IF-USP).

Nussenzveig falou sobre informação quântica com modos múltiplos de luz e destacou que a luz quântica é adequada não apenas para a comunicação, mas também para a computação.

O pesquisador falou ainda sobre um conceito muito importante em estudos para o desenvolvimento de dispositivos quânticos de transmissão de informação, o emaranhamento.

O emaranhamento (ou entrelaçamento) quântico é um fenômeno da mecânica quântica segundo o qual dois ou mais objetos (que podem ser ondas ou partículas) estão tão ligados que um deles não pode ser corretamente descrito sem que o outro seja mencionado, ainda que estejam separados por milhões de quilômetros. Isso leva a correlações muito fortes entre as propriedades físicas observáveis das diversas partículas subatômicas.

Nussenzveig lembrou o que Albert Einstein (1879-1955), Boris Podolsky (1896-1966) e Nathan Rosen (1909-1995) escreveram quando introduziram o conceito de emaranhamento quântico: “Medidas em uma partícula fornecem informação sobre o estado de outra partícula. Uma vez que, no momento da medida, os sistemas não estão interagindo, nenhuma mudança pode ocorrer no segundo sistema como consequência de algo que ocorra no primeiro sistema”.

Em um experimento realizado pelo grupo de Marcelo Martinelli e Nussenzveig no IF-USP, os pesquisadores conseguiram obter um emaranhamento de seis ondas de luz geradas por uma fonte de laser desenvolvida pelos cientistas e denominado Oscilador Paramétrico Óptico (OPO).

Resultados da pesquisa – conduzida com apoio da FAPESP no âmbito do Projeto Temático “Explorando informação quântica com átomos, cristais e chips” – foram publicados na revista Physical Review Letters m 2018.

Antes, em 2009, o grupo do IF-USP havia conseguido o emaranhamento de três ondas luminosas em um estudo divulgado na revista Science.

Fotônica quântica integrada

Felippe Alexandre Silva Barbosa, do Instituto de Física Gleb Wataghin da Universidade Estadual de Campinas (Unicamp), falou sobre fotônica quântica integrada na mesma sessão do simpósio FAPESP Week France.

“Na fotônica integrada, o objetivo principal é desenvolver tecnologias que permitam codificar, transmitir e processar informação com o uso de luz”, disse Barbosa, que também pesquisa o Oscilador Paramétrico Óptico em parceria com Nussenzveig e Martinelli – os três são autores do artigo publicado em 2018 na Physical Review Letters.

“A área de fotônica integrada está na linha de frente da pesquisa científica e tecnológica há mais de uma década. Mais recentemente, desenvolvimentos em plataformas de fotônica integrada têm levado a progressos em outros campos, tais como óptica não linear, microfluídica, aprendizado de máquina e informação quântica”, disse.

Segundo Barbosa, muitos avanços nas áreas de informação quântica e fotônica integrada ajudaram a “empurrar os limites tanto na pesquisa em ciência fundamental quanto na tecnologia de ponta”.

“Nos últimos anos, tem havido uma interseção crescente entre essas duas áreas de pesquisa, resultando no campo emergente da fotônica quântica integrada”, disse. Com apoio da FAPESP, Barbosa coordena um projeto de pesquisa cujo objetivo principal é estudar esse novo campo.

“A pesquisa se concentra na preparação de estados comprimidos, emaranhados e de fótons individuais, usando filmes finos de nitreto de silício e niobato de lítio, duas plataformas fotônicas escaláveis e integradas”, disse.

Nanotecnologia em Lyon

O uso de nanotecnologias em áreas como engenharia de materiais, eletrônica, fotônica e biotecnologia foi abordado no simpósio por Christian Seassal, diretor assistente do Instituto de Nanotecnologia de Lyon.

“O Instituto de Nanotecnologia de Lyon é uma estrutura colaborativa com presença em vários campi da Universidade de Lyon. Somos cerca de 200 pessoas trabalhando em ciência dos materiais e novos conceitos em dispositivos e integração de sistemas”, disse Seassal à Agência FAPESP.

“Temos trabalhado desde 2007 com tecnologias dedicadas em termos de óxidos funcionais, materiais semicondutores, nanomateriais (incluindo nanofios, por exemplo) e em novos conceitos em processamento da informação, geração de energia, biotecnologia e saúde, entre outros”, disse.

Cristais fotônicos, integração de sistemas nanotecnológicos, dispositivos fotovoltaicos em silício, sensores biomédicos, roupas inteligentes e nanofluidos são outros temas de pesquisa no Instituto de Tecnologia de Lyon.

O simpósio FAPESP Week France acontece entre os dias 21 e 27 de novembro, graças a uma parceria entre a FAPESP e as universidades de Lyon e de Paris, ambas da França. Leia outras notícias sobre o evento em www.fapesp.br/week2019/france.

Heitor Shimizu, de Lyon
Agência FAPESP

Este texto foi originalmente publicado por Agência FAPESP de acordo com a licença Creative Commons CC-BY-NC-ND. Leia o original aqui.

Ciclo de Palestras ILP-FAPESP

A maioria das pessoas associa blockchain à moeda digital bitcoin. Mas, na verdade, blockchain [corrente de blocos, em tradução literal] é uma tecnologia virtual que pode ser usada para criar redes com os mais diversos propósitos.” Esta foi a definição dada à Agência FAPESP por Percival Lucena, líder de pesquisas em blockchain no laboratório da IBM do Brasil. O pesquisador citou como exemplo o rastreio de alimentos, desde a produção das matérias-primas na unidade agropecuária até as prateleiras dos supermercados.

Lucena falou sobre o uso de blockchain em vários segmentos da economia durante o evento “Blockchain e Segurança de Dados”, realizado em 4 de novembro no âmbito do Ciclo de Palestras ILP-FAPESP.

Resultado de uma parceria entre o Instituto do Legislativo Paulista (ILP) e a FAPESP, as palestras do ciclo são realizadas mensalmente na Assembleia Legislativa de São Paulo (Alesp), com o objetivo de divulgar pesquisas científicas e tecnológicas para legisladores, gestores públicos e pessoas interessadas.

José Damico, fundador da empresa Compplied Computação Aplicada, outro palestrante do ciclo, detalhou a definição. “A blockchain funciona como um livro-razão digital compartilhado, que permite o registro sequencial de todas as atividades de interesse de uma cadeia de usuários. Qualquer integrante da cadeia pode ter acesso ao banco de dados”, disse.

O pesquisador lembrou que, inicialmente, a blockchain foi usada para registrar as transferências, saldos e transações feitas com criptomoedas. “O compartilhamento dos dados e a validação das operações por parte de todos os participantes da cadeia permitem, por exemplo, que uma transferência de criptomoeda seja validada sem a necessidade de intermediação de uma única entidade todo-poderosa, como um banco, que atesta se a transação foi feita ou não”, afirmou.

Mas esse tipo de uso inicial, que motivou a criação do conceito da blockchain, não é o único possível. Damico enfocou especificamente o uso da tecnologia nas movimentações e transações agrícolas.

Marcos Simplício, professor de computação da Escola Politécnica da Universidade de São Paulo (Poli-USP), explicou que, como o próprio nome indica, a estrutura de uma blockchain é baseada no encadeamento de blocos.

“Basicamente, o que a tecnologia faz é garantir uma certa ordenação de dados que são ali colocados. Os blocos ficam encadeados em uma certa ordem. E cada bloco tem alguma informação a ser verificada, dependendo da aplicação. Isso evita, por exemplo, que alguém consiga passar duas vezes a mesma moeda, mesmo sendo ela digital”, disse.

“Com o tempo percebeu-se que a implementação canônica das blockchains não oferece anonimato verdadeiro. Há aplicações para as quais a privacidade também é necessária. Mas blockchain resistente a ataques à criptografia tradicional ainda é algo que está em amadurecimento”, disse Alexandre Braga, pesquisador do Instituto de Computação da Universidade Estadual de Campinas (IC-Unicamp), que tratou especificamente do tema da segurança nas cadeias de blocos.

Na avaliação do deputado Ricardo Mellão (NOVO), o tema é muito importante. "Muitos dizem que blockchain é a grande revolução da tecnologia depois da internet. É transparente, confiável e por isso pode ser aplicada na administração pública", disse.

O evento contou ainda com a participação do diretor-presidente do Conselho Técnico-Administrativo (CTA) da FAPESP, Carlos Américo Pacheco.

José Tadeu Arantes
Agência FAPESP“

Este texto foi originalmente publicado por Agência FAPESP de acordo com a licença Creative Commons CC-BY-NC-ND. Leia o original aqui.

Agma Traina

Sistemas computacionais sofisticados, capazes de armazenar, indexar, analisar e dar sentido a grandes conjuntos de dados não processáveis por softwares tradicionais, poderão se tornar ferramentas essenciais para apoiar a tomada de decisão na área médica.

Pesquisas direcionadas a esse objetivo têm sido conduzidas pelo Grupo de Bases de Dados e de Imagens (GBdI) do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (ICMC-USP) em São Carlos. O tema foi abordado pela professora Agma Traina, em palestra apresentada na FAPESP Week France.

“Um dos maiores desafios no campo da Ciência da Computação é integrar, organizar e aproveitar grandes volumes de dados multimodais de plataformas diversificadas para impulsionar processos de tomada de decisão. Ou seja, tornar possível usar dados de fontes variadas, como exames, monitoramento e tratamento de pacientes, para coletar informações de casos semelhantes e construir uma melhor compreensão sobre um determinado caso”, disse Traina.

As pesquisas feitas no laboratório do GBdI lidam com grandes quantidades de dados complexos, oriundos de hospitais públicos do Estado de São Paulo. O grupo trabalha principalmente com imagens e vídeos capazes de fornecer aos médicos informações sobre casos similares tratados no passado.

“Quando um especialista analisa, por exemplo, a radiografia do tórax de um paciente, ele pode até se lembrar de ter visto um resultado semelhante no passado, mas dificilmente saberá quando ou onde foi e com qual paciente. Mas, se puder buscar instantaneamente em uma base de dados por casos similares, exames, resultados e tratamentos indicados no passado, poderá tomar decisões com menos esforço e mais confiança”, disse Traina à Agência FAPESP.

Parte da pesquisa tem apoio da FAPESP por meio de um Projeto Temático coordenado por Traina. Ela conta que o projeto envolve organização de bases de dados, métodos de acessos métricos (empregados para acelerar a avaliação de consultas semelhantes), processamento e visualização de imagens que permitem oferecer a médicos especialistas ferramentas, algoritmos e métodos para reunir e acessar informações muito valiosas de casos antigos e atuais.

“Precisamos para isso reunir profissionais em aprendizado de máquina, base de dados, linhagem de dados [sobre a origem dos dados], visualização e processamento de imagens. Em nosso grupo, temos cientistas da computação, médicos, matemáticos e outros pesquisadores que trabalham integrados, de modo a resolver os problemas propostos”, disse a pesquisadora, que também é membro da Coordenação de Área de Ciência e Engenharia da Computação da FAPESP.

Traina destaca que o tamanho e a complexidade das bases de dados de registros eletrônicos de pacientes oferecem grandes desafios de processamento, tanto em termos de desenvolvimento e de aplicação de técnicas de análise e de extração de conhecimento, como no apoio ao desenvolvimento de ferramentas práticas para uso clínico.

“No entanto, também incorporam uma infinidade de oportunidades para criar algoritmos e métodos capazes de exibir informações relevantes relacionadas com um paciente particular ou grupos de pacientes, que estariam usualmente ocultas pelo grande volume de dados”, disse.

“Além disso, a manipulação eficiente desses dados ajuda a tornar os registros eletrônicos de pacientes em uma plataforma mais úteis para apoiar os profissionais de saúde, lidando com aplicações médicas de rápida demanda, bem como decisões governamentais estratégicas em saúde”, disse.

O simpósio FAPESP Week France foi realizado entre os dias 21 e 27 de novembro, graças a uma parceria entre a FAPESP e as universidades de Lyon e de Paris, ambas da França. Leia outras notícias sobre o evento em www.fapesp.br/week2019/france.

Heitor Shimizu, de Paris
Agência FAPESP

Este texto foi originalmente publicado por Agência FAPESP de acordo com a licença Creative Commons CC-BY-NC-ND. Leia o original aqui.

inteligência artificial

Máquinas podem ser treinadas para classificar imagens e, desse modo, identificar tumores em tomografias, composições mineralógicas em rochas ou patologias em análises de microscopia óptica. Essa área da inteligência artificial é conhecida como aprendizado de máquina e vem ganhando novas aplicações nos últimos anos.

O treinamento da máquina é feito por meio da repetição de imagens usadas como exemplos de um determinado contexto ou situação e a preparação adequada desse material requer um esforço de especialistas das mais diversas áreas.

“O humano é que coordena. Sem o controle do especialista sobre o processo de treinamento, a máquina pode aprender a tomar decisões com base nas características da imagem que não estão relacionadas ao problema-alvo. Isso gera um resultado ruim ou restrito àquela base de dados em que a máquina foi treinada. Quando muda a base de dados, o erro aumenta consideravelmente, tornando a análise da máquina pouco confiável”, disse Alexandre Xavier Falcão, do Instituto de Computação da Universidade Estadual de Campinas (Unicamp), em palestra apresentada na última quinta-feira (21/11) na FAPESP Week France.

Falcão tem unido a ciência da computação com diferentes áreas do conhecimento a partir de projetos em machine learning, desenvolvidos com o apoio da FAPESP, linha de pesquisa que investiga a interação humano-máquina na tomada de decisões.

Automatização da detecção de parasitas

Um dos projetos liderados por Falcão e apresentados na FAPESP Week France teve como objetivo automatizar a detecção de parasitas em exame de fezes. A pesquisa foi conduzida por meio de uma parceria entre a Immunocamp e pesquisadores dos Institutos de Computação e de Química da Unicamp, além da Faculdade de Ciências Médicas da mesma universidade.

A equipe interdisciplinar desenvolveu uma máquina – patenteada e em breve disponível no mercado – capaz de identificar as 15 espécies mais prevalentes de parasitas que infectam humanos no Brasil.

A técnica de aprendizado de máquina demonstrou eficiência superior a 90%, bem maior que as análises convencionais realizadas por humanos por meio de análise visual de lâminas de microscopia óptica, cujos índices variam de 48% a, no máximo, 76%. A máquina também é capaz de processar 2 mil imagens em quatro minutos.

“A ideia não é substituir o trabalho de humanos, até porque eles precisam treinar as máquinas para a identificação de mais espécies de parasitas e confirmar o diagnóstico dos patógenos detectados pela máquina, mas evitar a fadiga dos humanos e aumentar a precisão dos resultados”, disse.

A tecnologia inédita contou também com apoio da FAPESP por meio do Programa Pesquisa Inovativa em Pequenas Empresas (PIPE).

Aprendizado interativo de máquina

De acordo com Falcão, a primeira dificuldade do projeto foi ensinar a máquina a distinguir nas imagens o que era impureza e o que era, de fato, parasita. “Só conseguimos contornar esse obstáculo por meio da combinação entre técnicas de processamento de imagens, aprendizado interativo de máquina e visualização. O especialista e a máquina participam de forma colaborativa no ciclo do aprendizado da máquina. Outro ponto importante é que áreas da saúde e da química têm criado técnicas para gerar lâminas de microscopia óptica mais ricas em parasitas e com menos impurezas fecais”, disse.

Uma das inovações criadas pela equipe da Unicamp foi um sistema para separação de parasitas e impurezas baseado no princípio de flotação por ar dissolvido.

A máquina é capaz de fazer a varredura automatizada da lâmina e detectar os parasitas que aparecem em imagens na tela do computador. Isso foi possível por meio de técnicas computacionais que separam os componentes da imagem para verificar e decidir se são impurezas ou uma das 15 espécies parasitárias.

“A interação humano-máquina tem potencial para reduzir o esforço humano e aumentar a confiança na decisão algorítmica. Nossa abordagem tem mostrado que a inclusão do especialista no ciclo de treinamento gera sistemas confiáveis de tomada de decisão baseada em análise de imagem."

O intuito da metodologia é minimizar o esforço do especialista na anotação de imagem em larga escala visando a construção de sistemas de tomada de decisão com alto índice de acerto.

“A abordagem clássica, que usa exemplos pré-anotados e sem interação humana durante o treinamento, deixa várias perguntas sem resposta. São questões essenciais, como quantos exemplos são necessários para que as máquinas aprendam ou como explicar as decisões tomadas pela máquina. A nossa metodologia consiste em incluir o especialista no ciclo do aprendizado de máquina para que perguntas como essas sejam respondidas”, disse.

A estratégia da equipe de Falcão para construir sistemas de tomada de decisão confiáveis tem sido explorar habilidades complementares. “Os humanos são superiores na abstração de conhecimento. Já as máquinas não se cansam e são melhores no processamento de grandes quantidades de dados. Desse modo, o esforço do especialista é minimizado ao controlar o ciclo de aprendizado e as decisões das máquinas passam a ser explicáveis”, disse.

Aprendizado autônomo

Outra técnica de machine learning que tem sido empregada cada vez mais para desenvolver novas tecnologias baseadas em análise de imagens é a de deep learning, que visa treinar as máquinas a aprenderem sozinhas por meio de reconhecimento de padrões e, dessa forma, agirem e interpretarem dados de modo mais natural.

Os avanços nessa área têm possibilitado inovações importantes baseadas na análise de imagens, como reconhecimento facial, identificação de corpos celestes ou sistemas capazes de descrever o conteúdo de uma foto, destacou Nina Hirata, pesquisadora do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP), em palestra apresentada também na última quinta-feira (21/11) durante a programação da FAPESP Week France.

“Tarefas comuns em problemas de análise de imagens, como classificação, reconhecimento de objetos, segmentação [delineação precisa do contorno de objetos] e interpretação do conteúdo, podem ser abordadas com técnicas de machine learning e, nos últimos anos sobretudo, com técnicas de deep learning”, disse Hirata.

Como explicou a pesquisadora, deep learning envolve técnicas que permitem processar uma imagem diretamente, sem que um humano precise descrever as características da imagem durante o treinamento da máquina.

“Antes era preciso escrever algoritmos muito específicos para extrair informações de características da imagem. Cada caso era um caso. O processo era muito manual. Hoje, com o deep learning, essa tarefa ficou muito mais fácil, o que nos permite focar em tarefas de nível mais elevado. Por exemplo, no caso de imagens biomédicas, em vez de empenhar nosso esforço em segmentar e extrair características de células individuais em um tecido, podemos canalizar o esforço na comparação de tecidos”, disse Hirata.

No entanto, acrescentou, apesar dos vários aspectos positivos dessa tecnologia, existem também vários desafios a serem vencidos. “Deep learning é uma espécie de caixa-preta: é muito difícil explicar por que ele está funcionando ou por que, às vezes, deixa de funcionar”, disse Hirata.

Interdisciplinar

A pesquisadora da USP trabalha atualmente em um projeto dedicado ao entendimento de imagens e de modelos de deep learning. Outro objetivo da pesquisa é testar a aplicação desses modelos em áreas diversas da ciência, como o reconhecimento de espécies de plânctons e a identificação de corpos celestes em imagens capturadas por meio de telescópios. Ela ainda citou outros projetos em andamento no instituto, um deles com o objetivo de medir o quão verde é uma cidade com base em dados do Google Street View.

“Em minha experiência, percebi que há uma dificuldade de comunicação entre pesquisadores de áreas distintas, barreira que dificulta colaborações multidisciplinares. Mas isso precisa ser mudado, pois atualmente é quase impossível fazer uma pesquisa sem estar amparado em dados e na ciência da computação”, disse.

Para Hirata, é preciso que pesquisadores de outras áreas entendam como formular problemas computacionais e, ao mesmo tempo, os estudantes da área de computação sejam treinados a lidar mais diretamente com problemas reais.

O simpósio FAPESP Week France acontece entre os dias 21 e 27 de novembro, graças a uma parceria entre a FAPESP e as universidades de Lyon e de Paris, ambas da França. Leia outras notícias sobre o evento em www.fapesp.br/week2019/france.

Maria Fernanda Ziegler, de Lyon
Agência FAPESP

Este texto foi originalmente publicado por Agência FAPESP de acordo com a licença Creative Commons CC-BY-NC-ND. Leia o original aqui.

mecanismo de captação de glicose

Um sensor óptico para detecção de glicose foi criado por pesquisadores brasileiros em um estudo coordenado por Bruno Manzolli Rodrigues, professor da Universidade Brasil, campus São Paulo. O dispositivo poderá ser usado, no futuro, para monitorar o nível de glicose em portadores de doenças como diabetes, por exemplo.

O estudo foi desenvolvido no âmbito de um projeto apoiado pela FAPESP. Artigo a respeito foi publicado no periódico Materials Today: Proceedings.

“O sensor foi desenvolvido a partir de uma plataforma de nanofibras de PVA (poli [álcool vinílico]) com pontos quânticos de grafeno. O sistema de preparação foi totalmente amigável do ponto de vista ambiental e o resultado mostrou-se muito robusto e de baixo custo”, disse Rodrigues à Agência FAPESP.

“O PVA é um polímero sintético solúvel em água, não tóxico e biodegradável. E os pontos quânticos de grafeno foram preparados usando como precursor o ácido cítrico, um componente de ocorrência natural em frutas”, contou o pesquisador.

Para produzir as nanofibras de PVA, foi usada a técnica de eletrofiação, bem conhecida atualmente. O procedimento é relativamente simples. O polímero em solução é colocado em uma seringa acoplada a uma agulha metálica. Aplica-se então uma diferença de potencial muito alta, da ordem de 10 mil a 30 mil volts. Quando o campo elétrico atinge um valor crítico, a força de repulsão eletroestática supera a tensão superficial e um jato da solução em forma de fio é ejetado pela agulha rumo a um coletor eletricamente aterrado. No percurso, o solvente evapora, deixando apenas as fibras poliméricas carregadas.

Para produzir os pontos quânticos, os pesquisadores carbonizaram moléculas de ácido cítrico, gerando nanopartículas de grafeno estabilizadas em solução aquosa. A otimização da preparação de materiais híbridos de PVA e grafeno já havia sido noticiada em um artigo anterior de Rodrigues e colaboradores, publicado na revista Materials Chemistry and Physics.

O pesquisador explicou que, pelo fato de serem muito pequenas, da ordem de 2 a 5 nanômetros, essas nanopartículas apresentam excelentes propriedades ópticas e eletrônicas, que são resultantes de confinamentos quânticos e efeitos de fronteira.

“Por ser nanofibroso, o material apresenta uma área superficial muito grande, que lhe possibilita imobilizar enzimas em sua superfície. No caso, a enzima de interesse é a glucoseoxidase, bastante seletiva para moléculas de glicose. Uma vez que a enzima esteja imobilizada no material, este, em solução, passa a reagir com moléculas de glicose. E o produto liberado pela reação da enzima com a glicose é o peróxido de hidrogênio [H2O2], que penetra nos poros das nanofibras e suprime a fluorescência dos pontos quânticos”, explicou Rodrigues.

Assim, quanto mais glicose, mais peróxido e menos fluorescência. De modo que se torna possível construir uma escala quantitativa, correlacionando inversamente fluorescência e concentração de glicose. “De 1 a 10 micromols, a correlação glicose-fluorescência mostrou-se linear. E o material foi muito efetivo para detectá-la. O limite de detecção foi de 12 micromols”, disse o pesquisador.

Mol é a unidade do Sistema Internacional para quantidade de substância. Um mol contém exatamente 6,02214076 × 1023 entidades elementares (moléculas ou íons ou átomos ou partículas subatômicas), sendo este número a constante de Avogadro.

Como a resposta da fluorescência à concentração de glicose é linear, o material presta-se muito bem para aplicação como sensor na vida real. “Além da solução usada, queremos agora testar o dispositivo para outros materiais, como sangue e urina”, disse Rodrigues.

O artigo Glucose sensing via a green and low-cost platform from electrospun poly (vinyl alcohol)/graphene quantum dots fibers pode ser acessado em www.sciencedirect.com/science/article/pii/S2214785319300434?via%3Dihub.

 José Tadeu Arantes | Agência FAPESP

Este texto foi originalmente publicado por Agência FAPESP de acordo com a licença Creative Commons CC-BY-NC-ND. Leia o original aqui.

eletroencefalografia

Com o objetivo de facilitar o diagnóstico precoce da doença de Alzheimer, pesquisadores da Universidade Federal do ABC (UFABC) trabalham para desenvolver, aprimorar e validar marcadores baseados na análise computacional de dados de eletroencefalografia quantitativa, técnica de baixo custo e não invasiva que permite um mapeamento da atividade cerebral.

O trabalho é coordenado por Francisco José Fraga da Silva, professor do Centro de Engenharia, Modelagem e Ciências Sociais Aplicadas (CECS), que falou sobre o tema em palestra apresentada na FAPESP Week France.

“Embora seja uma doença progressiva e, até agora, incurável, o diagnóstico e o tratamento precoce permitem retardar a progressão dos sintomas e melhorar a qualidade de vida dos pacientes”, disse o pesquisador.

Durante o evento, Fraga da Silva apresentou um resumo dos estudos que conduziu nos últimos 10 anos – vários deles com apoio da FAPESP – sobre processamento e classificação de exames de eletroencefalografia quantitativa. O objetivo é criar métodos para apoiar tanto o diagnóstico precoce da doença de Alzheimer como de uma condição conhecida como comprometimento cognitivo leve (CCL), caracterizada por uma perda de memória leve e contínua, que pode ou não progredir para um quadro de demência.

A pesquisa envolve engenharia da informação, neurociência e temas como processamento de sinais biomédicos, reconhecimento de padrões e aprendizado de máquina.

“É muito importante diagnosticar e acompanhar adequadamente pacientes com CCL, uma vez que são pessoas com risco aumentado de desenvolver demência”, disse Fraga da Silva. “Estatísticas recentes mostram que cerca de 50% de todas as pessoas que relataram sintomas de CCL a um médico desenvolveram Alzheimer nos quatro anos seguintes.”

O pesquisador explicou que há metodologias já validadas para diagnóstico de CCL e do Alzheimer que demandam equipamentos como tomografia computadorizada e ressonância magnética funcional – ambos caros e pouco acessíveis em países mais pobres ou em áreas distantes dos grandes centros urbanos.

O eletroencefalograma, por outro lado, é uma técnica barata, portátil e, além disso, não invasiva. O equipamento permite registrar a atividade elétrica do cérebro por meio de eletrodos colocados no couro cabeludo.

Na avaliação de Fraga da Silva, o baixo custo e a larga disponibilidade do equipamento permitem a realização de exames seriados e o acompanhamento da evolução do estado neurológico.

Resultados

Em um estudo divulgado recentemente na revista Computer Methods and Programs in Biomedicine o grupo da UFABC e colaboradores canadenses investigaram o uso de potenciais evento-relacionados (ERP) e de sincronização/dessincronização relacionada a eventos (ERS/ERD) para o diagnóstico da doença de Alzheimer em estágio inicial.

ERP (Event-Related Potentials) é um tipo de análise baseado na média de vários segmentos de eletroencefalograma que permite identificar a atividade cerebral específica quando o indivíduo é exposto a determinados estímulos sensoriais (em geral, visuais ou auditivos).

Já a análise ERS/ERD (Event-Related Synchronization/Desynchronization) permite detectar, respectivamente, o aumento e a diminuição de ritmos específicos (ritmo alfa, por exemplo), que ocorrem durante e logo depois do estímulo sensorial.

O eletroencefalograma abrange quatro ritmos principais de ondas mentais: beta (estado normal de vigília), alfa (estados mentais relaxados), teta (ocorre em meditação, sono e relaxamento profundo) e delta (sono profundo).

“Esses ritmos, que nada mais são que oscilações em bandas de frequência específicas, aparecem normalmente combinados em sinais de eletroencefalograma, mas podem ser separados por meio de filtros”, explicou Fraga da Silva à Agência FAPESP.

Os autores do artigo compararam – durante a realização de tarefas que demandavam o uso de memória de curto prazo (memória de trabalho ou operacional) – os resultados comportamentais (tempo e acurácia de reação) e as respostas ERP e ERS/ERD em idosos saudáveis (grupo controle), em pacientes com CCL e em um outro grupo com portadores de Alzheimer em estágio inicial.

Os resultados indicaram que as análises ERS/ERD se mostraram mais eficientes do que ERP na detecção precoce de Alzheimer e de CCL.

“Esperamos que da busca de biomarcadores topográficos baseados em eletroencefalografia quantitativa possa surgir um aplicativo computacional que permita aumentar significativamente a acurácia, a sensibilidade e a especificidade na detecção precoce da doença de Alzheimer”, disse Fraga da Silva.

O simpósio FAPESP Week France foi realizado entre os dias 21 e 27 de novembro, graças a uma parceria entre a FAPESP e as universidades de Lyon e de Paris, ambas da França. Leia outras notícias sobre o evento em www.fapesp.br/week2019/france.

Heitor Shimizu, de Paris
Agência FAPESP

Este texto foi originalmente publicado por Agência FAPESP de acordo com a licença Creative Commons CC-BY-NC-ND. Leia o original aqui.

Embrapa expande conteúdos sobre aquicultura

O Centro de Inteligência e Mercado em Aquicultura (CIAqui), espaço digital organizado pela Embrapa e voltado a essa cadeia produtiva de valor, tem recebido novos tipos de conteúdos. A ideia é acompanhar as necessidades do mercado de aquicultura, procurando gerar e compartilhar dados e informações interessantes para os diversos segmentos ligados à área.

O pesquisador Manoel Pedroza, da Embrapa Pesca e Aquicultura (Palmas-TO), está à frente da equipe responsável pela manutenção do CIAqui. Segundo ele, “as atualizações e as inserções de novas temáticas tornam o centro mais interessante aos usuários pois asseguram o acesso a dados recentes e de interesse para o setor. Neste sentido, vale ressaltar que a inserção de novas temáticas de dados sempre visa a atender demandas dos agentes da cadeia, como foi o caso de itens inseridos recentemente como as estatísticas de peixes ornamentais e novas informações sobre a produção de tilápia”.

Nas últimas semanas, novos itens foram acrescentados à página do centro. No item “produção brasileira”, por exemplo, foram inseridos dados referentes a 2018 e referentes a peixes nativos e exóticos. Já o item “comércio exterior” agora tem dados de peixes ornamentais. No item que publica cotações da Companhia de Entrepostos e Armazéns Gerais de São Paulo (Ceagesp), há três novas espécies – pintado, truta e salmão – que se juntam à tilápia. Outra novidade é uma seção específica para canais de vídeos relacionados a aquicultura.

Lançado oficialmente em setembro último, o CIAqui está com avaliação positiva, de acordo com Manoel: “foi muito bem recebido pelo setor aquícola, que já vem utilizando-o como referência para acesso a informações”. O pesquisador relata a repercussão do espaço digital. “Tenho recebido um retorno muito positivo tanto por parte de agentes institucionais (extensionistas, pesquisadores etc.) como de empresas e produtores da aquicultura”, conta.

Conheça um pouco mais do centro na vídeo animação a seguir.

 

Resultado de projeto – O CIAqui é um dos resultados do BRS Aqua, projeto em que estão envolvidos aproximadamente 270 empregados de mais de 20 Unidades da Embrapa. Liderado pela pesquisadora Lícia Lundstedt, da Embrapa Pesca e Aquicultura, ele tem forte caráter estruturante, com destaque para campos experimentais e laboratórios. Outro destaque do BRS Aqua é seu caráter de formação técnica na área de aquicultura, capacitando bolsistas e estagiários.

O BRS Aqua conta com recursos financeiros de três fontes complementares: o Fundo Tecnológico do Banco Nacional de Desenvolvimento Econômico e Social (Funtec / BNDES); a Embrapa; e a Secretaria de Aquicultura e Pesca do Ministério da Agricultura, Pecuária e Abastecimento (SAP / Mapa) – recursos que vêm sendo executados pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq).

Clenio Araujo (6279/MG)
Embrapa Pesca e Aquicultura

Manufacturing Execution System

No final da década de 1990, uma pequena empresa paulista apoiada pelo Programa Pesquisa Inovativa em Pequenas Empresas (PIPE) da FAPESP – a PPI-Multitask– começou a desenvolver softwares para gerenciamento de atividades de produção, conhecidos como MES (sigla em inglês para Manufacturing Execution System).

Já usados em mais de 200 fábricas no Brasil e em mais de uma dezena no exterior por clientes de diversos segmentos, os softwares de MES desenvolvidos pela empresa ganharam ainda mais importância, recentemente, com o surgimento da indústria 4.0 – como é definida a integração na indústria de transformação de tecnologias de big data, inteligência artificial e internet das coisas, entre outras, com o objetivo de aumentar o nível de automação e possibilitar novas formas de organização dos sistemas de produção.

A fim de expandir seus negócios e ingressar nesse novo mercado de desenvolvimento de softwares e soluções digitais voltadas à indústria 4.0, a multinacional brasileira WEG anunciou, no início de setembro, um acordo para a aquisição do controle da PPI-Multitask.

A fabricante catarinense de equipamentos eletroeletrônicos, com operações industriais em 12 países e presença comercial em 135 nações, passou a ter 51% do capital social da PPI, com possibilidade, prevista em contrato, de aumentar sua participação futuramente.

“Com a aquisição, a WEG passa a oferecer aos seus clientes softwares de MES, que são a espinha dorsal da indústria 4.0, por meio dos quais as indústrias podem começar o processo de digitalização da gestão do chão de fábrica”, disse Carlos José Bastos Grillo, diretor de negócios digitais da WEG, em nota à imprensa.

A nova divisão foi criada em junho pela WEG justamente para acelerar o desenvolvimento de soluções em softwares, que poderão ser usadas junto com produtos tradicionais da empresa e transformar em negócio o sistema interno de gerenciamento de processos e de manufatura em tempo real que criou para aperfeiçoar seus próprios processos produtivos.

A associação dos softwares desenvolvidos pela PPI aos motores e produtos de automação fabricados pela empresa permitirá aos clientes integrar o monitoramento do desempenho dos equipamentos com o sistema de gestão da execução da manufatura, em tempo real. Dessa forma, possibilitará garantir a visualização on-line da fábrica, a gestão da produtividade e o aumento da eficiência global dos equipamentos, o chamado OEE (sigla em inglês para Overall Equipment Effectiveness), avaliou Grillo.

“Conectados a um sistema de gerenciamento MES, teremos capacidade de oferecer informações precisas e em tempo real da produção e das máquinas, sincronizando o chão de fábrica com as requisições de vendas, suprimentos e estoques das empresas. E, dessa forma, garantir a precisão dos inventários, custos industriais e, principalmente, permitir o aumento da produtividade”, afirmou.

Em contrapartida, para a PPI, a aquisição permitirá acelerar a evolução dos sistemas MES que desenvolveu para atender novas demandas dos clientes e integrá-los com outros produtos da WEG, como sensores para monitoramento de motores elétricos e soluções de automação industrial e de eficiência energética.

“Agora, teremos uma estrutura de tecnologia de informação e automação industrial e maior capacidade de investimento em pesquisa, desenvolvimento e inovação, de modo a fazer melhorias significativas nos nossos produtos para atender às demandas da indústria 4.0”, disse Claudio Vinicius Buonamici, sócio da empresa, à Agência FAPESP.

Novas funcionalidades

Por meio de um projeto apoiado pelo PIPE-FAPESP, os pesquisadores da empresa desenvolveram uma nova versão do principal software que comercializam – chamado PC-Factory MES –, de modo a adequá-lo às necessidades da indústria 4.0.

“Esse projeto teve um papel fundamental no negócio com a WEG, pois, por meio dele, foi possível incorporar ao software uma série de funcionalidades inovadoras orientadas à indústria 4.0”, afirmou Buonamici.

Instalado diretamente nas máquinas ou em dispositivos como sensores, o software permite fazer a coleta de dados e o monitoramento on-line de uma linha de produção e gera informações em tempo real.

Se uma máquina começa a apresentar problemas que podem comprometer a qualidade de um produto, o sistema pode tomar a decisão, em poucos minutos, de interromper a produção.

A fim de atender às novas demandas da indústria 4.0, os desenvolvedores da empresa incorporaram ao software funcionalidades como a captura de variáveis de processos, como pressão e temperatura nas máquinas, que podem impactar em seu funcionamento.

“A correlação dessas variáveis com o que pode acontecer com as máquinas ao longo do tempo permite ao sistema emitir alertas de inspeção, por exemplo, para corrigir algum problema em curso”, disse Buonamici.

Elton Alisson
Agência FAPESP

Este texto foi originalmente publicado por Agência FAPESP de acordo com a licença Creative Commons CC-BY-NC-ND. Leia o original aqui.