Pesquisar na Comunidade
Mostrando resultados para as tags ''inteligência''.
Foram encontrados 2 registros
-
RTX 3060 + GT 730 + Fedora 35 + LLM Local Objetivo: tornar acessível para o trabalhador brasileiro uma estação de I.A. capaz de rodar modelos grandes (7B a 20B), gastando pouco, com peças acessíveis no MercadoLivre e Amazon Brasil, e com configuração simples, estável e testada na prática. Hardware acessível: a montagem do “PC Assalariado para IA” Aqui está a lista de peças que cabem no bolso e entregam resultados reais. ✔ 1. Placa de vídeo principal (para I.A.) RTX 3060 12GB Preço médio: R$ 1.200 ~ R$ 1.700 (usada) Link sugerido (o que você encontrou): https://www.mercadolivre.com.br/p/MLB17456216?pdp_filters=item_id:MLB5501357130 Esta placa é o coração da estação. Com 12GB VRAM, roda modelos de 7B–13B nativos, e modelos otimizados (AWQ / GPTQ / GGUF) de 15B–20B sem travar. ✔ 2. Placa de vídeo secundária (baratinha) GT 730 4GB DDR5 Preço médio: R$ 180 ~ R$ 280 Link sugerido: https://www.mercadolivre.com.br/p/MLB46015778?pdp_filters=item_id:MLB4073307603 Função: aliviar o processador e deixar a RTX 3060 100% dedicada ao motor da IA. Excelente custo-benefício — substitui a Quadro P1000 perfeitamente nesta função. ✔ 3. Processador + Placa-mãe + Memória (kit custo-benefício) Kit AM4 ou Intel antigo ainda rende muito. Exemplo no padrão de custo: Link sugerido (kit CPU + MB + RAM): https://a.co/d/2irohpy Requisitos mínimos de verdade: CPU: Ryzen 5 3600 / i5 9400F ou equivalente RAM: 16GB (ideal 32GB, mas 16 já segura LLM 7B–13B tranquilo) Placa-mãe: qualquer modelo estável com PCIe x16 ✔ 4. Extensor riser PCIe (se o gabinete for pequeno ou quente) Link sugerido: https://a.co/d/5TqL7gg Ajuda a montar a RTX 3060 até fora do gabinete, reduzindo temperatura. ✔ 5. Armazenamento barato e rápido SSD SATA (para o sistema): https://a.co/d/hP6UUCp NVMe M.2 (para modelos de IA, muito importante): https://www.mercadolivre.com.br/p/MLB28449046?pdp_filters=item_id:MLB5828893566 Quanto mais rápido o NVMe, melhor a carga de modelos e datasets. Custo total aproximado (Brasil, 2025) ItemValor RTX 3060 usadaR$ 1.300 GT 730R$ 220 Kit CPU + MB + RAMR$ 600–800 SSD + NVMeR$ 200 RiserR$ 40–60 Total: R$ 2.300–2.600 → Aproximadamente 2 salários mínimos (R$ 1.412 × 2 = R$ 2.824) Ou seja: cabe no bolso do trabalhador. E entrega I.A. local de verdade. Sistema operacional usado no projeto Fedora 35 + CUDA 11.8 + Driver NVIDIA 535.x (versão mais estável para RTX + IA local) ✔ Sem travamentos ✔ Sem tela preta ✔ CUDA funcionando ✔ Duas GPUs reconhecidas (3060 + GT 730) ✔ Modelo testado em uso real Instalação do ambiente — passo a passo simplificado INSTALAR DRIVER NVIDIA estável sudo dnf install akmod-nvidia xorg-x11-drv-nvidia-cuda sudo reboot Verificar: nvidia-smi INSTALAR CUDA 11.8 (essencial pra IA) Baixar .run da NVIDIA: sudo sh cuda_11.8.0_520.61.05_linux.run ✔ não instale driver ✔ instale só toolkit + samples Adicionar ao PATH: echo 'export PATH=/usr/local/cuda-11.8/bin:$PATH' | sudo tee -a /etc/profile echo 'export LD_LIBRARY_PATH=/usr/local/cuda-11.8/lib64:$LD_LIBRARY_PATH' | sudo tee -a /etc/profile Criar ambiente para I.A. conda create -n llm python=3.10 -y conda activate llm Instalar PyTorch com CUDA 11.8: pip install torch==2.0.1 --index-url https://download.pytorch.org/whl/cu118 Instalar Ollama (mais simples) curl -fsSL https://ollama.com/install.sh | sh Rodar modelo: ollama run llama3 Configurando as duas GPUs para funcionar juntas A GT 730 fica como GPU de vídeo. A RTX 3060 fica como GPU de I.A.. Exemplo de offload no WebUI: device_map={ "model.embed_tokens": 0, "model.layers.0": 1, "model.layers.1": 0, "lm_head": 0 } 0 = RTX 3060 1 = GT 730 Desempenho real obtido no Brasil (teste feito) Modelos até 20B em AWQ / GGUF → fluido LLaMA 3 8B → 20–30 tokens/s Mistral 7B → 30–40 tokens/s Uso pleno dos 12 GB da 3060 Navegação 100% estável na GT 730 Nada de travar o Xorg ou Wayland Conclusão — qualquer brasileiro pode ter IA local Com menos de R$ 2.600, qualquer trabalhador monta: 1 estação de IA completa 2 GPUs operando em harmonia Sistema Linux estável Ferramentas modernas e gratuitas Capaz de treinar, ajustar e rodar grandes modelos. Guia gerado por I.A. resumido, o processo envolveu teste de varias distro. De FEDORA desde 41, 39, e 35 por conta de suporte a CUDA do processador da placa de vídeo, avaliação de uso com Ubuntu 22.04, ou Kubuntu. Todo o processo foi resumido com os comandos que funcionaram na adaptação do FEDORA 35 sem suporte oficial, realizando atualização com kernel travado, mas ainda com compatibilidade de pacote CUDA para o processador da placa de vídeo motor da LLM.
-
 dica ChatBoot - assistente virtual que usa inteligência artificial
Alexandre Grecco postou um tópico em Assuntos Diversos
Alguém aqui trabalha ou conheçe algum sistema de ChatBoot estável e que não seja num valor absurdo?-
- chatboot
- assistente
- (mais 3)
SOBRE O ELETRÔNICABR
Técnico sem o EletrônicaBR não é um técnico completo! Leia Mais...
