Activity
Mon
Wed
Fri
Sun
Dec
Jan
Feb
Mar
Apr
May
Jun
Jul
Aug
Sep
Oct
Nov
What is this?
Less
More

Memberships

Data SEO Community

Public • 1.1k • Free

Data SEO Academy

Private • 111 • Paid

7 contributions to Data SEO Community
Scraping Redes Sociales
Buenas! cómo va? Estoy tratando de armar un script para saber la cantidad de seguidores en redes de un listado de perfiles pero no lo puedo hacer funcionar. La idea es pasarle un csv con las urls de los perfiles y obtener cuantos seguidores tienen. Intenté con Beautiful Soup pero no me dió resultado. ¿Alguien probó algo así? Si me pueden recomendar alguna otra opción para intentar me viene bien, muchas gracias. Abrazo
3
6
New comment Aug 21
2 likes • Aug 14
@Javier Osorio hola Javier! Va a depender mucho si esa info está accesible sin loguearse a la red social, si se puede ver en el código html o se carga por javascript, etc. Hay muchas redes sociales que directamente te ofrecen una API que puede tener esta funcionalidad, y es más sencillo acceder a lo que querés hacer, una vez que lidiaste con la autentificación. Pero lo más probable, como dice @Alan Preiti, es que tengas que usar Selenium o similar.
Ejercicio Date
Hola a todos. Estoy apenas comenzando con mi formación y haciendo el ejercicio de Date, hago el llamado de print(fecha) pero no me imprime. ¿Qué podría estar pasando? Adjunto una imagen
2
3
New comment Apr 29
Ejercicio Date
2 likes • Apr 11
@Tomas Molina estas poniendo "print = fecha" y la instrucción es print(fecha). Probablemente tengás que volver a generar la sesión de Colab porque le asignaste al comando "print" la variable "fecha", tenes que ir a "Entorno de ejecución" y "Reiniciar sesión"
Análisis de competidores basado en entidades: Guía para un SEO 🧨
Las entidades son fundamentales para que los motores de búsqueda comprendan la relación semántica del contenido. Con herramientas como el Knowledge Graph de Google, estos motores son muy eficientes en identificar las entidades relevantes de un tema. Sigue estos pasos simplificados para analizar las entidades de tu sitio web utilizando Screaming Frog y Google Collab: 1. Obtén una clave API de TextRazor. La versión gratuita permite hasta 500 consultas. 2. Examina tu sitio con Screaming Frog, asegurándote de incluir la URL, el título y la descripción meta. 3. Repite el proceso para hasta tres competidores. 4. Crea una copia del cuaderno de Google Collab e inserta tu clave API. 5. Importa los datos de tu análisis y los de tus competidores al cuaderno. 6. Ejecuta el cuaderno en Google Collab. Al finalizar, obtendrás un reporte en Excel que destaca las diferencias en las entidades entre tu sitio y el de los competidores. Utiliza esta información para identificar entidades claves empleadas por ellos que podrían faltar en tu sitio. Esto te ayudará a crear contenido nuevo, optimizar el existente o mejorar el uso de enlaces internos. ENLACE DEL ARTÍCULO Si alguno le interesa profundizar más en el tema o tiene alguna consulta, no dude en escribir en comentarios 💪
8
3
New comment Mar 19
2 likes • Mar 19
Spacy, de los gratis, entiendo que es lo mejor, el problema es si querés obtener la metadata del knowledge graph, ahi lo mejor es la. NLP de Google que es un poco más barata que TextRazor, me parece.
Las " se transforman en "" cuando genero el file csv
Hola estoy teniendo el siguiente problema: Tengo una variable content que contiene texto html del tipo: " <!-- wp:buttons --> <div class="wp-block-buttons"><!-- wp:button {"backgroundColor":"vivid-purple","width":100,"style":{"border":{"radius":"10px"}},"className":"is-style-fill"} -->" El problema se presenta cuando intento pasar ese string a un archivo csv; el archivo csv se genera bien pero en el campo con el codigo html la comillas dobles se duplican. Hasta antes de ejecutar esta linea las comillas dobles están bien: csv_writer.writerow([country, content, slug]) Cuando se generó el file csv tengo "" en vez de ". Alguien sabe cómo puedo resolverlo?
3
6
New comment Feb 12
2 likes • Feb 10
hay algun motivo para pasarlo a csv? en Python podes guardar como pickle que te mantiene todos los formatos
1 like • Feb 11
Pickle es un formato nativo de python para guardar objetos serializados https://www.geeksforgeeks.org/understanding-python-pickling-example/ "Lo que hace Pickle es "serializar" el objeto primero antes de escribirlo en un archivo. El pickling es una forma de convertir un objeto de Python (lista, diccionario, etc.) en un flujo de caracteres. La idea es que este flujo de caracteres contiene toda la información necesaria para reconstruir el objeto en otro script de Python. Proporciona una facilidad para convertir cualquier objeto de Python en un flujo de bytes. Este flujo de bytes contiene toda la información esencial sobre el objeto para que pueda ser reconstruido, o "desempaquetado", y volver a su forma original en cualquier Python."
API de Search Console
Si van a usar la API de Search Console les recomiendo mucho que instalen la librería de Josh Carty desde Github https://github.com/joshcarty/google-searchconsole, es mucho más sencilla de usar y permite lidiar mucho más fácilmente con el flujo de autentificación.
8
6
New comment Sep '23
3 likes • Sep '23
te digo más: la forma que tiene de solucionar el flujo de autentificación lo podés extrapolar a cualquier producto de la api de Discovery de Google para usar con oAuth sin cuenta de servicio, lo vengo haciendo desde Cemento... La única "contra" es que tenés que generar el token de forma local (no funciona en Colab), pero después podés hacer lo que quieras
1 like • Sep '23
esto
1-7 of 7
Damian Taubaso
3
35points to level up
@damian-taubaso-7125
Algo de Python, algo de SEO

Active 7h ago
Joined Aug 22, 2023
powered by