---
title: Spider Scraper
description: O `SpiderTool` foi projetado para extrair e ler o conteúdo de um site especificado usando o Spider.
icon: spider-web
mode: "wide"
---

# `SpiderTool`

## Descrição

[Spider](https://spider.cloud/?ref=crewai) é o [scraper](https://github.com/spider-rs/spider/blob/main/benches/BENCHMARKS.md#benchmark-results) e crawler de código aberto mais rápido que retorna dados prontos para LLM.  
Ele converte qualquer site em HTML puro, markdown, metadados ou texto e permite que você faça crawling com ações personalizadas utilizando IA.

## Instalação

Para usar o `SpiderTool` você precisa baixar o [Spider SDK](https://pypi.org/project/spider-client/)  
e também o SDK `crewai[tools]`:

```shell
pip install spider-client 'crewai[tools]'
```

## Exemplo

Este exemplo mostra como você pode usar o `SpiderTool` para permitir que seu agente faça scraping e crawling de websites.  
Os dados retornados pela API do Spider já estão prontos para LLM, então não é necessário fazer nenhuma limpeza adicional.

```python Code
from crewai_tools import SpiderTool

def main():
    spider_tool = SpiderTool()

    searcher = Agent(
        role="Web Research Expert",
        goal="Find related information from specific URL's",
        backstory="An expert web researcher that uses the web extremely well",
        tools=[spider_tool],
        verbose=True,
    )

    return_metadata = Task(
        description="Scrape https://spider.cloud with a limit of 1 and enable metadata",
        expected_output="Metadata and 10 word summary of spider.cloud",
        agent=searcher
    )

    crew = Crew(
        agents=[searcher],
        tasks=[
            return_metadata,
        ],
        verbose=2
    )

    crew.kickoff()

if __name__ == "__main__":
    main()
```

## Argumentos
| Argumento            | Tipo      | Descrição                                                                                                                                             |
|:---------------------|:----------|:------------------------------------------------------------------------------------------------------------------------------------------------------|
| **api_key**          | `string`  | Especifica a chave da API do Spider. Se não for definida, procura por `SPIDER_API_KEY` nas variáveis de ambiente.                                     |
| **params**           | `object`  | Parâmetros opcionais para a requisição. O padrão é `{"return_format": "markdown"}` para otimizar o conteúdo para LLMs.                                |
| **request**          | `string`  | Tipo de requisição a ser realizada (`http`, `chrome`, `smart`). `smart` tem como padrão HTTP, alterando para renderização JavaScript se necessário.   |
| **limit**            | `int`     | Máximo de páginas a serem rastreadas por site. Defina como `0` ou omita para ilimitado.                                                               |
| **depth**            | `int`     | Profundidade máxima do crawl. Defina como `0` para sem limite.                                                                                        |
| **cache**            | `bool`    | Habilita cache HTTP para acelerar execuções repetidas. O padrão é `true`.                                                                             |
| **budget**           | `object`  | Define limites baseados em caminho para páginas rastreadas, ex.: `{"*":1}` apenas para a página raiz.                                                 |
| **locale**           | `string`  | Localidade da requisição, ex.: `en-US`.                                                                                                               |
| **cookies**          | `string`  | Cookies HTTP para a requisição.                                                                                                                       |
| **stealth**          | `bool`    | Habilita modo furtivo para requisições Chrome para evitar detecção. O padrão é `true`.                                                                |
| **headers**          | `object`  | Headers HTTP como um mapa de chave-valor para todas as requisições.                                                                                   |
| **metadata**         | `bool`    | Armazena metadados sobre as páginas e conteúdos, auxiliando interoperabilidade com IA. O padrão é `false`.                                            |
| **viewport**         | `object`  | Define as dimensões de viewport do Chrome. O padrão é `800x600`.                                                                                      |
| **encoding**         | `string`  | Especifica o tipo de codificação, ex.: `UTF-8`, `SHIFT_JIS`.                                                                                          |
| **subdomains**       | `bool`    | Inclui subdomínios no crawl. O padrão é `false`.                                                                                                      |
| **user_agent**       | `string`  | User agent HTTP personalizado. Padrão é um agente aleatório.                                                                                          |
| **store_data**       | `bool`    | Habilita o armazenamento dos dados para a requisição. Sobrescreve `storageless` quando definido. O padrão é `false`.                                  |
| **gpt_config**       | `object`  | Permite à IA gerar ações de crawl, com encadeamento de etapas opcional via array para `"prompt"`.                                                     |
| **fingerprint**      | `bool`    | Habilita fingerprint avançado para o Chrome.                                                                                                          |
| **storageless**      | `bool`    | Impede todo o armazenamento de dados, incluindo embeddings de IA. O padrão é `false`.                                                                |
| **readability**      | `bool`    | Pré-processa conteúdo para leitura via [Mozilla’s readability](https://github.com/mozilla/readability). Melhora o conteúdo para LLMs.                 |
| **return_format**    | `string`  | Formato para retorno dos dados: `markdown`, `raw`, `text`, `html2text`. Use `raw` para formato padrão da página.                                     |
| **proxy_enabled**    | `bool`    | Habilita proxies de alta performance para evitar bloqueios em nível de rede.                                                                          |
| **query_selector**   | `string`  | CSS query selector para extração de conteúdo a partir do markup.                                                                                      |
| **full_resources**   | `bool`    | Baixa todos os recursos vinculados ao site.                                                                                                           |
| **request_timeout**  | `int`     | Timeout em segundos para as requisições (5-60). O padrão é `30`.                                                                                     |
| **run_in_background**| `bool`    | Executa a requisição em segundo plano. Útil para armazenamento de dados e acionamento de crawls no dashboard. Não tem efeito se `storageless` estiver definido.