Obrigado por enviar sua consulta! Um dos membros da nossa equipe entrará em contato com você em breve.
Obrigado por enviar sua reserva! Um dos membros da nossa equipe entrará em contato com você em breve.
Programa do Curso
Introdução ao Ollama para implantação do LLM
- Visão geral das capacidades da Ollama
- Vantagens da implementação local de modelos de IA
- Comparação com soluções de alojamento de IA baseadas na nuvem
Configurando o ambiente de implantação
- Instalar o Ollama e as dependências necessárias
- Configuração de hardware e aceleração GPU
- [Dimensionar Docker para implementações escaláveis
Implantação de LLMs com Ollama
- Carregamento e gestão de modelos de IA
- Implantação de Llama 3, DeepSeek, Mistral e outros modelos
- Criar APIs e pontos de extremidade para acesso ao modelo de IA
Otimizar o desempenho do LLM
- Modelos de ajuste fino para eficiência
- Reduzir a latência e melhorar os tempos de resposta
- Gerir a memória e a atribuição de recursos
Integração de Ollama em fluxos de trabalho de IA
- Ligar o Ollama a aplicações e serviços
- Automatizar processos orientados para a IA
- Utilizar o Ollama em ambientes de computação periférica
Monitorização e manutenção
- Acompanhamento do desempenho e depuração de problemas
- Atualizar e gerir modelos de IA
- Garantir a segurança e a conformidade nas implementações de IA
Dimensionamento de implementações de modelos de IA
- Práticas recomendadas para lidar com altas cargas de trabalho
- Dimensionamento Ollama para casos de uso corporativo
- Avanços futuros na implantação local de modelos de IA
Resumo e próximos passos
Requisitos
- Experiência básica com modelos de aprendizagem automática e de IA
- Familiaridade com interfaces de linha de comando e scripts
- Compreensão dos ambientes de implantação (local, borda, nuvem)
Público-alvo
- Engenheiros de IA que otimizam implantações de IA locais e baseadas na nuvem
- Profissionais de ML que implementam e afinam LLMs
- Especialistas em DevOps que gerem a integração de modelos de IA
14 Horas