WebNN: IA no navegador.

A API Neural Web (WebNN) traz capacidades de aceleração do aprendizado de máquina diretamente para aplicações web. Com o WebNN, os desenvolvedores podem aproveitar o poder das redes neurais dentro do ambiente do navegador, possibilitando uma ampla gama de casos de uso impulsionados por IA sem depender de servidores externos ou plugins. O que é WebNN?

WebNN é uma API JavaScript que fornece uma interface de alto nível para executar tarefas de inferência de rede neural de forma eficiente em vários aceleradores de hardware, como CPUs, GPUs e chips de IA dedicados (às vezes chamados de NPUs ou TPUs). Ao utilizar aceleração de hardware, o WebNN permite uma execução mais rápida e eficiente em termos de energia de modelos de aprendizado de máquina, tornando-o ideal para aplicativos em tempo real e cenários onde a latência é crítica. Modelo de Programação

O WebNN segue um modelo de programação simples, permitindo que os desenvolvedores realizem tarefas de inferência com mínima complexidade. A API é focada em definir as operações e a infraestrutura necessária para executar modelos de aprendizado de máquina, em vez de lidar com funcionalidades de nível mais alto, como carregamento, análise ou gerenciamento de modelos. O WebNN é projetado para ser agnóstico em relação aos formatos de modelo e deixa a responsabilidade de carregar e analisar os modelos para outras bibliotecas (como ONNX.js ou Tensorflow.js) ou para a própria aplicação web.

Em alto nível, o WebNN basicamente tem 2 etapas para executar um modelo:

Construção do Modelo: No WebNN, o primeiro passo é construir o modelo usando a API MLGraphBuilder. Uma vez que o modelo tenha sido construído, ele pode ser transformado em um grafo executável.

Execução do Modelo: Uma vez que o grafo executável tenha sido construído, os dados são inseridos e o grafo executa tarefas de inferência para obter previsões ou classificações. O WebNN fornece métodos para selecionar back-ends (seja explicitamente ou por características) que então processam os dados de entrada e retornam resultados de saída do modelo.

O WebNN aproveita os aceleradores de hardware para acelerar a execução de modelos. Como o WebNN é agnóstico em relação ao hardware e modelo, ele pode usar qualquer um dos recursos de hardware disponíveis (seja CPU, GPU, NPU, TPU, etc.), maximizando o desempenho e minimizando a latência, possibilitando experiências de usuário suaves e responsivas.

Mais informações aqui: https://webmachinelearning.github.io/webnn-intro/

Deixe um comentário

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.