LangChain Core tem vulnerabilidades de Path Traversal (Path Traversal) nas funções `load_prompt` legadas
Plataforma
python
Componente
langchain
Corrigido em
1.2.22
LangChain é um framework para construir agentes e aplicações alimentadas por LLM. Anterior à versão 1.2.22, múltiplas funções em langchain_core.prompts.loading leem ficheiros de caminhos embutidos em dicionários de configuração desserializados sem validação contra directory traversal (directory traversal) ou injeção de caminho absoluto. Quando uma aplicação passa configurações de prompt influenciadas pelo utilizador para load_prompt() ou load_prompt_from_config(), um atacante pode ler ficheiros arbitrários no sistema de ficheiros do host, restringido apenas por verificações de extensão de ficheiro (.txt para templates, .json/.yaml para exemplos). Este problema foi corrigido na versão 1.2.22.
Como corrigir
Nenhum patch oficial disponível. Procure alternativas ou monitore atualizações.
Monitore suas dependências automaticamente
Receba alertas quando novas vulnerabilidades afetarem seus projetos.
Começar grátis