Programa do Curso

Introdução à Ollama

  • O que é o Ollama e como funciona?
  • Benefícios de executar modelos de IA localmente
  • Visão geral dos LLMs suportados (Llama, DeepSeek, Mistral, etc.)

Instalação e configuração do Ollama

  • Requisitos do sistema e considerações de hardware
  • Instalar o Ollama em diferentes sistemas operativos
  • Configuração de dependências e configuração de ambiente

Executar modelos de IA localmente

  • Descarregamento e carregamento de modelos de IA no Ollama
  • Interação com modelos através da linha de comandos
  • Engenharia básica de comandos para tarefas locais de IA

Otimizar o desempenho e a utilização de recursos

  • Gerir recursos de hardware para uma execução eficiente da IA
  • Reduzir a latência e melhorar o tempo de resposta do modelo
  • Avaliação comparativa do desempenho de diferentes modelos

Use Cases para implementação local de IA

  • Chatbots e assistentes virtuais alimentados por IA
  • Tarefas de processamento e automatização de dados
  • Aplicações de IA centradas na privacidade

Resumo e próximas etapas

Requisitos

  • Conhecimento básico dos conceitos de IA e de aprendizagem automática
  • Familiaridade com interfaces de linha de comando

Público-alvo

  • Desenvolvedores que executam modelos de IA sem dependências de nuvem
  • Profissionais Business interessados em privacidade de IA e implantação econômica
  • Entusiastas de IA que exploram a implantação de modelos locais
 7 Horas

Próximas Formações Provisórias

Categorias Relacionadas