
Adélia Cruz
Neural Network Developer
curl_cffi es una biblioteca de Python que proporciona enlaces eficientes y de bajo nivel a la biblioteca libcurl utilizando CFFI (C Foreign Function Interface). Esto le permite realizar solicitudes HTTP con alto rendimiento y control preciso, similar a la herramienta de línea de comandos curl, pero dentro de Python. Es particularmente útil para tareas de raspado web que requieren velocidad y configuraciones avanzadas.
Características:
libcurl para solicitudes HTTP rápidas.Antes de comenzar a usar curl_cffi, asegúrese de tener instalado lo siguiente:
En sistemas Ubuntu/Debian, es posible que deba instalar los encabezados de desarrollo de libcurl:
sudo apt-get install libcurl4-openssl-dev
Instale curl_cffi usando pip:
pip install curl_cffi
Aquí hay un ejemplo básico de cómo usar curl_cffi para realizar una solicitud GET:
from curl_cffi import requests
# Realizar una solicitud GET
response = requests.get('https://httpbin.org/get')
# Comprobar el código de estado
print(f'Código de Estado: {response.status_code}')
# Imprimir el contenido de la respuesta
print('Cuerpo de la Respuesta:', response.text)
Raspemos una página web para extraer información. Usaremos Quotes to Scrape para obtener todas las citas junto con sus autores.
from curl_cffi import requests
from bs4 import BeautifulSoup
# URL a raspar
url = 'http://quotes.toscrape.com/'
# Realizar una solicitud GET
response = requests.get(url)
# Analizar el contenido HTML usando BeautifulSoup
soup = BeautifulSoup(response.content, 'html.parser')
# Encontrar todos los elementos de cita
quotes = soup.find_all('div', class_='quote')
# Extraer y mostrar las citas y los autores
for quote in quotes:
text = quote.find('span', class_='text').get_text()
author = quote.find('small', class_='author').get_text()
print(f'{text} — {author}')
Salida:
“The world as we have created it is a process of our thinking. It cannot be changed without changing our thinking.” — Albert Einstein
“It is our choices, Harry, that show what we truly are, far more than our abilities.” — J.K. Rowling
... (citas adicionales)
En esta sección, exploraremos cómo integrar CapSolver con curl_cffi para omitir captchas. CapSolver es un servicio externo que ayuda a resolver varios tipos de captchas, incluyendo ReCaptcha V2, que se utilizan comúnmente en los sitios web.
Demostraremos cómo resolver ReCaptcha V2 usando CapSolver y luego raspar el contenido de una página que requiere resolver el captcha primero.
import os
import capsolver
from curl_cffi import requests
# Considere usar variables de entorno para información sensible
capsolver.api_key = os.getenv("CAPSOLVER_API_KEY", "Su clave de API de CapSolver")
PAGE_URL = os.getenv("PAGE_URL", "https://example.com") # URL de la página con el captcha
PAGE_KEY = os.getenv("PAGE_SITE_KEY", "SITE_KEY") # Clave del sitio para el captcha
def solve_recaptcha_v2(url, site_key):
solution = capsolver.solve({
"type": "ReCaptchaV2TaskProxyless",
"websiteURL": url,
"websiteKey": site_key,
"proxy": PROXY
})
return solution['solution']['gRecaptchaResponse']
def main():
print("Resolviendo reCaptcha V2...")
captcha_solution = solve_recaptcha_v2(PAGE_URL, PAGE_KEY)
print("Captcha Resuelto!")
if __name__ == "__main__":
main()
Nota: Reemplace PAGE_URL con la URL de la página que contiene el captcha y PAGE_SITE_KEY con la clave del sitio del captcha. Puede encontrar la clave del sitio en el código fuente HTML de la página, generalmente dentro del <div> que contiene el widget del captcha.
Si necesita enrutar sus solicitudes a través de un proxy, curl_cffi lo facilita:
from curl_cffi import requests
# Definir la configuración del proxy
proxies = {
'http': 'http://usuario:contraseña@servidorproxy:puerto',
'https': 'https://usuario:contraseña@servidorproxy:puerto',
}
# Realizar una solicitud GET usando el proxy
response = requests.get('https://httpbin.org/ip', proxies=proxies)
# Imprimir el contenido de la respuesta
print('Cuerpo de la Respuesta:', response.text)
Puede administrar cookies usando CookieJar del módulo http.cookiejar de Python:
from curl_cffi import requests
from http.cookiejar import CookieJar
# Crear una instancia de CookieJar
cookie_jar = CookieJar()
# Crear una sesión con el frasco de cookies
session = requests.Session()
session.cookies = cookie_jar
# Realizar una solicitud GET
response = session.get('https://httpbin.org/cookies/set?name=value')
# Mostrar las cookies
for cookie in session.cookies:
print(f'{cookie.name}: {cookie.value}')
Puede enviar encabezados personalizados y realizar solicitudes POST con curl_cffi:
from curl_cffi import requests
# Definir encabezados personalizados
headers = {
'User-Agent': 'Mozilla/5.0 (compatible)',
'Accept-Language': 'es-ES,es;q=0.5',
}
# Datos a enviar en la solicitud POST
data = {
'username': 'usuarioprueba',
'password': 'contraseñaprueba',
}
# Realizar una solicitud POST
response = requests.post('https://httpbin.org/post', headers=headers, data=data)
# Imprimir la respuesta JSON
print('Respuesta JSON:', response.json())
Reclame su Código de Bonificación para las mejores soluciones de captcha en CapSolver: scrape. Después de canjearlo, obtendrá un bono adicional del 5% después de cada recarga, un número ilimitado de veces.

Con curl_cffi, puede realizar tareas de raspado web de manera eficiente, al tiempo que tiene un control detallado sobre sus solicitudes HTTP. Integrarlo con CapSolver le permite omitir captchas como ReCaptcha V2, lo que permite acceder a contenido que de otro modo sería difícil de raspar.
Siéntase libre de ampliar estos ejemplos para satisfacer sus necesidades específicas de raspado. Recuerde siempre respetar los términos de servicio de los sitios web que raspa y cumplir con las leyes vigentes.
¡Feliz raspado!
Aprende qué desencadena el error de Cloudflare 1020 Acceso denegado, cómo funciona el Firewall de Aplicaciones Web y la detección de bots, y cómo los desarrolladores pueden reducir los falsos positivos en flujos de trabajo de automatización legítimos.

Aprende a utilizar la plantilla n8n de CapSolver para monitorear las páginas de productos protegidas por AWS-WAF, resolver desafíos, extraer precios, comparar cambios y activar alertas automáticamente.
