IApédia – Letra L

IApédia — Glossário de Inteligência Artificial (Letra L)

Bem-vindo à IApédia, o glossário de Inteligência Artificial criado pela AQIA.

Nesta página encontras os principais conceitos e siglas iniciados pela letra L,
explicados em linguagem simples, com tradução, significado e exemplos práticos.

Termos de Inteligência Artificial — Letra L

Termo Tradução (se aplicável) Descrição Exemplo
1LabelRótuloInformação que identifica a categoria ou classe de um dado para treino supervisionado.Etiqueta "gato" aplicada a imagens contendo gatos.
2Language ModelModelo de LinguagemModelo treinado para processar e gerar texto em linguagem natural.GPT, BERT usados para geração e compreensão de texto.
3LLaMaModelo de linguagem grande (LLM) desenvolvido pela Meta AI com arquitetura transformer decoder-only, reconhecido pela eficiência e desempenho superior em tarefas de linguagem natural.LLaMA 2 e LLaMA 3 usados para construir assistentes virtuais e sistemas de geração de texto avançados.
4Latent VariableVariável LatenteVariável não observada diretamente, mas inferida a partir dos dados observados.Variáveis em modelos generativos como VAE.
5LayerCamadaConjunto de neurónios que processam informação numa rede neural.Camada convolucional numa CNN.
6Learning RateTaxa de AprendizagemParâmetro que controla a velocidade em que um modelo ajusta os seus pesos durante o treino.Reduzir a taxa de aprendizagem para evitar oscilações no treino.
7Learning Rate SchedulerProgramador de Taxa de AprendizagemMétodo para ajustar a taxa de aprendizagem durante o treino automaticamente.Decaimento exponencial da taxa em treinamentos longos.
8Learning to LearnAprender a AprenderTécnica onde modelos são treinados para adquirir a capacidade de aprender novas tarefas rapidamente.Meta-aprendizagem para adaptação rápida em novos domínios.
9LeaseArrendamentoEm computação e IA, pode referir-se ao tempo limitado para acesso a recursos ou dados.Controlo de acesso temporário a bases de dados sensíveis.
10Least SquaresMínimos QuadradosMétodo de otimização que minimiza a soma dos quadrados dos erros para ajustar modelos.Regressão linear por mínimos quadrados.
11LLM (Large Language Model)Modelo de Linguagem GrandeModelos de linguagem muito grandes treinados com vastas quantidades de texto para tarefas variadas.GPT-3, GPT-4, Claude.
12LSTM (Long Short-Term Memory)Memória de Longo e Curto PrazoTipo de rede neuronal recorrente que supera o problema do desaparecimento do gradiente.Modelos para reconhecimento de fala e geração de texto sequencial.
13Labeled DataDados RotuladosDados de treino que incluem rótulos para supervisionar a aprendizagem do modelo.Imagens com classificações de objetos.
14LatencyLatênciaTempo de atraso entre o envio de um dado e a recepção da resposta/processamento.Latência em inferência de modelos em tempo real.
15Layer NormalizationNormalização de CamadaTécnica para estabilizar e acelerar treino normalizando outputs dentro de camadas neuronais.Usado em transformers para melhorar performance.
16Learning ObjectiveObjetivo de AprendizagemFunção que o modelo tenta optimizar durante o treino.Minimizar erro de classificação.
17Learning ParadigmParadigma de AprendizagemAbordagem usada para o treino de um modelo, como supervisado, não supervisionado ou reforço.Aprendizagem supervisionada em classificação.
18Lexical AnalysisAnálise LexicalProcesso de decompor texto em unidades básicas como palavras ou tokens.Tokenização em PLN.
19LexiconLéxicoConjunto de palavras e suas definições usadas em modelos de linguagem.Dicionários incorporados em sistemas de tradução automática.
20LiftElevarMedida usada em análise de associação para refletir a força da relação entre eventos.Associações frequentes em análises de cestas de compra.
21LightGBMFramework de machine learning eficiente e rápido baseado em decision trees, usado em classificação e regressão.Competições Kaggle e aplicações industriais.
22Linear RegressionRegressão LinearModelo estatístico que assume relação linear entre variáveis dependentes e independentes.Previsão de preços com base em fatores econômicos.
23Linear ModelModelo LinearModelo que prevê resultados como combinação linear das características de entrada.Regressão linear, SVM linear.
24Lipschitz ContinuityContinuidade LipschitzPropriedade matemática que limita abruptas mudanças numa função, usada para estabilizar treino.Regularização em redes neurais generativas.
25Local MinimaMínimo LocalPonto num espaço de otimização onde a função tem valor menor que pontos próximos, mas não o global.Problema em treino de redes profundas ajustadas por gradiente.
26Locality Sensitive Hashing (LSH)Hashing Sensível à LocalidadeTécnica para aproximar pesquisa por similaridade eficiente em grandes bases de dados.Busca rápida de imagens parecidas.
27Log LossPerda LogarítmicaFunção de perda que mede a incerteza da previsão de classificadores probabilísticos.Otimizar classificadores em tarefas binárias.
28LogitsLogitsValores de saída não normalizados de uma rede neural antes do softmax.Usado para calcular probabilidades em classificação.
29Long-tail DistributionDistribuição de Cauda LongaDistribuição onde muitos eventos raros têm baixa frequência mas impacto significativo.Popularidade de itens em recomendação; muitos produtos pouco comprados.
30Loop UnrollingDesenrolar de CicloTécnica de optimização de código para acelerar execução desenrolando ciclos.Melhorar desempenho em inferência de modelos.
31Loss FunctionFunção de PerdaFunção que avalia o erro entre previsão e valor real durante treino.Cross-entropy, MSE.
32Low-shot LearningAprendizagem com Poucos ExemplosTécnica para treinar modelos com muito poucos dados rotulados.Classificação de imagens com poucos exemplos.
33LRU CacheCache LRU (Least Recently Used)Estrutura que mantém dados acessados mais recentemente para acesso rápido.Cache para acelerar inferência em sistemas IA.
34Latent Dirichlet Allocation (LDA)Alocação Latente de DirichletModelo probabilístico que descobre tópicos latentes em coleções de texto.Extração de tópicos em análise de texto.
35Label SmoothingSuavização de RótulosTécnica para reduzir overfitting ao suavizar valores de rótulos rígidos durante treino.Usado em classificação para melhorar generalização.
36Learning Rate WarmupAquecimento da Taxa de AprendizagemEstratégia para iniciar treino com taxa baixa, aumentando gradualmente para estabilizar treino.Treino de transformers para evitar instabilidade inicial.
37Layer FreezingCongelamento de CamadasTécnica de treino onde algumas camadas do modelo são mantidas fixas para preservar conhecimento prévio.Ao ajustar finamente um modelo pré-treinado.
38Lp NormNorma LpGeneralização das normas L1 e L2 usada para medir magnitude de vetores em espaços de dados.Regularização de pesos em redes neuronais.
39Label PropagationPropagação de RótulosAlgoritmo semi-supervisionado que espalha rótulos a partir de poucos dados rotulados para não rotulados.Classificação em grafos com poucos dados rotulados.
40Language UnderstandingCompreensão de LinguagemCapacidade dos sistemas de IA interpretar e extrair significado do texto em linguagem natural.Ferramentas que analisam semântica ou intenção em texto.