IApédia — Glossário de Inteligência Artificial (Letra L)
Bem-vindo à IApédia, o glossário de Inteligência Artificial criado pela AQIA.
Nesta página encontras os principais conceitos e siglas iniciados pela letra L,
explicados em linguagem simples, com tradução, significado e exemplos práticos.
Termos de Inteligência Artificial — Letra L
Nº | Termo | Tradução (se aplicável) | Descrição | Exemplo |
---|---|---|---|---|
1 | Label | Rótulo | Informação que identifica a categoria ou classe de um dado para treino supervisionado. | Etiqueta "gato" aplicada a imagens contendo gatos. |
2 | Language Model | Modelo de Linguagem | Modelo treinado para processar e gerar texto em linguagem natural. | GPT, BERT usados para geração e compreensão de texto. |
3 | LLaMa | — | Modelo de linguagem grande (LLM) desenvolvido pela Meta AI com arquitetura transformer decoder-only, reconhecido pela eficiência e desempenho superior em tarefas de linguagem natural. | LLaMA 2 e LLaMA 3 usados para construir assistentes virtuais e sistemas de geração de texto avançados. |
4 | Latent Variable | Variável Latente | Variável não observada diretamente, mas inferida a partir dos dados observados. | Variáveis em modelos generativos como VAE. |
5 | Layer | Camada | Conjunto de neurónios que processam informação numa rede neural. | Camada convolucional numa CNN. |
6 | Learning Rate | Taxa de Aprendizagem | Parâmetro que controla a velocidade em que um modelo ajusta os seus pesos durante o treino. | Reduzir a taxa de aprendizagem para evitar oscilações no treino. |
7 | Learning Rate Scheduler | Programador de Taxa de Aprendizagem | Método para ajustar a taxa de aprendizagem durante o treino automaticamente. | Decaimento exponencial da taxa em treinamentos longos. |
8 | Learning to Learn | Aprender a Aprender | Técnica onde modelos são treinados para adquirir a capacidade de aprender novas tarefas rapidamente. | Meta-aprendizagem para adaptação rápida em novos domínios. |
9 | Lease | Arrendamento | Em computação e IA, pode referir-se ao tempo limitado para acesso a recursos ou dados. | Controlo de acesso temporário a bases de dados sensíveis. |
10 | Least Squares | Mínimos Quadrados | Método de otimização que minimiza a soma dos quadrados dos erros para ajustar modelos. | Regressão linear por mínimos quadrados. |
11 | LLM (Large Language Model) | Modelo de Linguagem Grande | Modelos de linguagem muito grandes treinados com vastas quantidades de texto para tarefas variadas. | GPT-3, GPT-4, Claude. |
12 | LSTM (Long Short-Term Memory) | Memória de Longo e Curto Prazo | Tipo de rede neuronal recorrente que supera o problema do desaparecimento do gradiente. | Modelos para reconhecimento de fala e geração de texto sequencial. |
13 | Labeled Data | Dados Rotulados | Dados de treino que incluem rótulos para supervisionar a aprendizagem do modelo. | Imagens com classificações de objetos. |
14 | Latency | Latência | Tempo de atraso entre o envio de um dado e a recepção da resposta/processamento. | Latência em inferência de modelos em tempo real. |
15 | Layer Normalization | Normalização de Camada | Técnica para estabilizar e acelerar treino normalizando outputs dentro de camadas neuronais. | Usado em transformers para melhorar performance. |
16 | Learning Objective | Objetivo de Aprendizagem | Função que o modelo tenta optimizar durante o treino. | Minimizar erro de classificação. |
17 | Learning Paradigm | Paradigma de Aprendizagem | Abordagem usada para o treino de um modelo, como supervisado, não supervisionado ou reforço. | Aprendizagem supervisionada em classificação. |
18 | Lexical Analysis | Análise Lexical | Processo de decompor texto em unidades básicas como palavras ou tokens. | Tokenização em PLN. |
19 | Lexicon | Léxico | Conjunto de palavras e suas definições usadas em modelos de linguagem. | Dicionários incorporados em sistemas de tradução automática. |
20 | Lift | Elevar | Medida usada em análise de associação para refletir a força da relação entre eventos. | Associações frequentes em análises de cestas de compra. |
21 | LightGBM | — | Framework de machine learning eficiente e rápido baseado em decision trees, usado em classificação e regressão. | Competições Kaggle e aplicações industriais. |
22 | Linear Regression | Regressão Linear | Modelo estatístico que assume relação linear entre variáveis dependentes e independentes. | Previsão de preços com base em fatores econômicos. |
23 | Linear Model | Modelo Linear | Modelo que prevê resultados como combinação linear das características de entrada. | Regressão linear, SVM linear. |
24 | Lipschitz Continuity | Continuidade Lipschitz | Propriedade matemática que limita abruptas mudanças numa função, usada para estabilizar treino. | Regularização em redes neurais generativas. |
25 | Local Minima | Mínimo Local | Ponto num espaço de otimização onde a função tem valor menor que pontos próximos, mas não o global. | Problema em treino de redes profundas ajustadas por gradiente. |
26 | Locality Sensitive Hashing (LSH) | Hashing Sensível à Localidade | Técnica para aproximar pesquisa por similaridade eficiente em grandes bases de dados. | Busca rápida de imagens parecidas. |
27 | Log Loss | Perda Logarítmica | Função de perda que mede a incerteza da previsão de classificadores probabilísticos. | Otimizar classificadores em tarefas binárias. |
28 | Logits | Logits | Valores de saída não normalizados de uma rede neural antes do softmax. | Usado para calcular probabilidades em classificação. |
29 | Long-tail Distribution | Distribuição de Cauda Longa | Distribuição onde muitos eventos raros têm baixa frequência mas impacto significativo. | Popularidade de itens em recomendação; muitos produtos pouco comprados. |
30 | Loop Unrolling | Desenrolar de Ciclo | Técnica de optimização de código para acelerar execução desenrolando ciclos. | Melhorar desempenho em inferência de modelos. |
31 | Loss Function | Função de Perda | Função que avalia o erro entre previsão e valor real durante treino. | Cross-entropy, MSE. |
32 | Low-shot Learning | Aprendizagem com Poucos Exemplos | Técnica para treinar modelos com muito poucos dados rotulados. | Classificação de imagens com poucos exemplos. |
33 | LRU Cache | Cache LRU (Least Recently Used) | Estrutura que mantém dados acessados mais recentemente para acesso rápido. | Cache para acelerar inferência em sistemas IA. |
34 | Latent Dirichlet Allocation (LDA) | Alocação Latente de Dirichlet | Modelo probabilístico que descobre tópicos latentes em coleções de texto. | Extração de tópicos em análise de texto. |
35 | Label Smoothing | Suavização de Rótulos | Técnica para reduzir overfitting ao suavizar valores de rótulos rígidos durante treino. | Usado em classificação para melhorar generalização. |
36 | Learning Rate Warmup | Aquecimento da Taxa de Aprendizagem | Estratégia para iniciar treino com taxa baixa, aumentando gradualmente para estabilizar treino. | Treino de transformers para evitar instabilidade inicial. |
37 | Layer Freezing | Congelamento de Camadas | Técnica de treino onde algumas camadas do modelo são mantidas fixas para preservar conhecimento prévio. | Ao ajustar finamente um modelo pré-treinado. |
38 | Lp Norm | Norma Lp | Generalização das normas L1 e L2 usada para medir magnitude de vetores em espaços de dados. | Regularização de pesos em redes neuronais. |
39 | Label Propagation | Propagação de Rótulos | Algoritmo semi-supervisionado que espalha rótulos a partir de poucos dados rotulados para não rotulados. | Classificação em grafos com poucos dados rotulados. |
40 | Language Understanding | Compreensão de Linguagem | Capacidade dos sistemas de IA interpretar e extrair significado do texto em linguagem natural. | Ferramentas que analisam semântica ou intenção em texto. |