Programa do Curso

Introdução ao Ollama para implantação do LLM

  • Visão geral das capacidades da Ollama
  • Vantagens da implementação local de modelos de IA
  • Comparação com soluções de alojamento de IA baseadas na nuvem

Configurando o ambiente de implantação

  • Instalar o Ollama e as dependências necessárias
  • Configuração de hardware e aceleração GPU
  • [Dimensionar Docker para implementações escaláveis

Implantação de LLMs com Ollama

  • Carregamento e gestão de modelos de IA
  • Implantação de Llama 3, DeepSeek, Mistral e outros modelos
  • Criar APIs e pontos de extremidade para acesso ao modelo de IA

Otimizar o desempenho do LLM

  • Modelos de ajuste fino para eficiência
  • Reduzir a latência e melhorar os tempos de resposta
  • Gerir a memória e a atribuição de recursos

Integração de Ollama em fluxos de trabalho de IA

  • Ligar o Ollama a aplicações e serviços
  • Automatizar processos orientados para a IA
  • Utilizar o Ollama em ambientes de computação periférica

Monitorização e manutenção

  • Acompanhamento do desempenho e depuração de problemas
  • Atualizar e gerir modelos de IA
  • Garantir a segurança e a conformidade nas implementações de IA

Dimensionamento de implementações de modelos de IA

  • Práticas recomendadas para lidar com altas cargas de trabalho
  • Dimensionamento Ollama para casos de uso corporativo
  • Avanços futuros na implantação local de modelos de IA

Resumo e próximos passos

Requisitos

  • Experiência básica com modelos de aprendizagem automática e de IA
  • Familiaridade com interfaces de linha de comando e scripts
  • Compreensão dos ambientes de implantação (local, borda, nuvem)

Público-alvo

  • Engenheiros de IA que otimizam implantações de IA locais e baseadas na nuvem
  • Profissionais de ML que implementam e afinam LLMs
  • Especialistas em DevOps que gerem a integração de modelos de IA
 14 Horas

Próximas Formações Provisórias

Categorias Relacionadas