Microsoft amplia acordos com objetivo de popularizar inteligência artificial
De olho em um mercado que deve movimentar cerca de US$ 23,4 bilhões até 2025, empresa firmou parcerias com a OpenAI e a Nvidia
A inteligência artificial (IA) deixou definitivamente o plano conceitual e já é uma realidade nas mais diversas áreas de aplicação, tais como processamento de linguagem natural, reconhecimento de imagem e processamento de fala, o que está impulsionando a crescimento do mercado.
O aumento do uso da tecnologias de aprendizado de máquina na publicidade e meios de comunicação social e em setores financeiros, aliados à crescente demanda por AI em outras e diversificadas áreas de aplicação de tecnologias como processamento de linguagem natural, reconhecimento de imagem e processamento de fala, estão impulsionando a crescimento do mercado
Estudo da Research and Markets estima que o mercado global de soluções de inteligência artificial deve movimentar cerca de US$ 23,4 bilhões até 2025. O montante representa um crescimento anual médio de 53,65% entre 2015 e 2020 e 44,3% até 2025.
De olho não só nesse filão, mas também em impulsionar sua ambiciosa estratégia popularizar a IA, a Microsoft vem firmando uma série parcerias com fornecedoras de tecnologia. Os mais recentes acordos foram feitos como a OpenAI e a Nvidia, que usarão a plataforma de nuvem Azure da fabricante de software para o desenvolvimento de novos projetos de inteligência artificial.
A OpenAI, organização sem fins não lucrativos voltada a pesquisas em inteligência artificial, fundada por fundada por Elon Musk, Sam Altman, Greg Brockman e Ilya Sutskever, vai utilizar a Azure como principal plataforma para suas pesquisas e quer criar novas ferramentas e tecnologias sobre essa infraestrutura.
A OpenAI será também das primeiras em adoptar as máquinas virtuais Azure N-Series, já disponíveis no Mercado. Essas máquinas virtuais foram criadas para cargas de trabalho computacionais, que incluem aprendizado profundo, simulações, renderização e o treinamento de redes neurais. Elas também oferecem recursos de visualização de alto rendimento para cenários de estação de trabalho e streaming ao utilizar o Nvidia Grid no Azure.
Além da OpenAI, outras empresas como Esri e Jellyfish Pictures já estão utilizando o Azure N-Series. A Esri está usando os recursos da GPU (unidade de processamento gráfico) da N-Series para alimentar seu software de mapeamento, e o estúdio de efeitos visuais Jellyfish Pictures o utiliza para renderizar efeitos visuais foto realistas e animações em larga escala.
"É uma ambição que compartilhamos com a OpenAI, seguindo nosso objetivo mútuo de usar a inteligência artificial para enfrentar alguns dos mais desafiadores problemas do mundo", disse Harry Shum, vice-presidente executivo de Inteligência Artificial e do Grupo de Pesquisa da Microsoft, em um post no blog da empresa.
A Microsoft também firmou parceria com a Nvidia para expandir os recursos de deep learning — conjunto de técnicas de aprendizado de máquina — da Cognitive Toolkit (CNTK), tecnologia de inteligência artificial integrada ao assistente virtual Cortana e ao serviço de mensagens Skype. A CNTK, da Microsoft, é uma entre as muitas plataformas que treinam computadores para o aprendizado. As empresas vão criar um conjunto de algoritmos de deep learning e bibliotecas que acelerarão a CNTK para executar tarefas como reconhecimento de imagem e de fala em GPUs.
"À medida que as necessidades de computação dos nossos clientes aceleram, trabalhamos em parceria com a Nvidia para atender a essas necessidades. Anunciamos que o Microsoft Cognitive Toolkit foi otimizado para rodar as máquinas virtuais Azure N-Series equipadas com Nvidia Tesla GPUs e estamos trabalhando juntos para produzir a próxima geração de inovação de hardware com GPUs baseadas em Pascal no Azure, em um futuro próximo", explica Shum.
O executivo também cita o Azure Bot Service, serviço no qual os desenvolvedores podem acelerar o desenvolvimento de bots com o Microsoft Bot Framework e desenvolver e gerenciá-los em um ambiente no Azure. Segundo ele, rodando em Azure Functions, esses bots podem escalar sob demanda e o cliente só paga pelos recursos que seus bots consumirem. Azure Functions, que já estão disponíveis, podem ser usados para maximizar o desenvolvimento ágil e a eficiência operacional de quase qualquer app ou serviço a um custo baixo.