Obrigado por enviar sua consulta! Um dos membros da nossa equipe entrará em contato com você em breve.
Obrigado por enviar sua reserva! Um dos membros da nossa equipe entrará em contato com você em breve.
Programa do Curso
Introdução à Ollama
- O que é o Ollama e como funciona?
- Benefícios de executar modelos de IA localmente
- Visão geral dos LLMs suportados (Llama, DeepSeek, Mistral, etc.)
Instalação e configuração do Ollama
- Requisitos do sistema e considerações de hardware
- Instalar o Ollama em diferentes sistemas operativos
- Configuração de dependências e configuração de ambiente
Executar modelos de IA localmente
- Descarregamento e carregamento de modelos de IA no Ollama
- Interação com modelos através da linha de comandos
- Engenharia básica de comandos para tarefas locais de IA
Otimizar o desempenho e a utilização de recursos
- Gerir recursos de hardware para uma execução eficiente da IA
- Reduzir a latência e melhorar o tempo de resposta do modelo
- Avaliação comparativa do desempenho de diferentes modelos
Use Cases para implementação local de IA
- Chatbots e assistentes virtuais alimentados por IA
- Tarefas de processamento e automatização de dados
- Aplicações de IA centradas na privacidade
Resumo e próximas etapas
Requisitos
- Conhecimento básico dos conceitos de IA e de aprendizagem automática
- Familiaridade com interfaces de linha de comando
Público-alvo
- Desenvolvedores que executam modelos de IA sem dependências de nuvem
- Profissionais Business interessados em privacidade de IA e implantação econômica
- Entusiastas de IA que exploram a implantação de modelos locais
7 Horas