Skocz do zawartości

antaba

Forumowicze
  • Postów

    112
  • Dołączył

Ostatnie wizyty

1607 wyświetleń profilu

Osiągnięcia antaba

  1. Wierzę, że się ktoś odezwie i pomoże. Najprostszy z możliwych scenariuszy- dodanie nowoprzybyłego maila do arkusza (ciągła błędna autoryzacja) logowanie przez konto Google - https://zapodaj.net/plik-iPMPafAjLE , przez brak karty kredytowej utworzenie konta w Google Coud także niemożliwe. W Zapierze wszystko działa, a w Make problemy. Może ktoś mi pomoże z tą automatyzacją i napisze co mam zrobić, żeby zadziało. Z góry dziękuję.
  2. Proszę o pomoc Mam konto chatgpt dłużej niż 0,5 roku, dlatego wykorzystanie darmowego api z tej strony [ platform.openai.com/overwiev ] chyba jest już niemożliwe (tak sądzę). Muszę wykonać ok. 1000 artykułów na podane frazy kluczowe i umieścić je w tym arkuszu Google Sheets. Do tego posłużył by Make, nawet jest tam gotowa templatka, ale problemem jest API key no i nie znajomość platformy. Scenariusz jest taki https://zapodaj.net/plik-XHiWhJDfrk Nigdy tego nie robiłem, nie wiem, czy Make wstawi te arty w odpowiednie kolumny, pomimo tego samouczka https://community.make.com/t/getting-started-with-openai-gpt-3-and-make/7796?utm_source=make&utm_medium=in-app&utm_campaign=template&_gl=1*otw863*_ga*NDgyNTA4OTE1LjE2ODgyMDk1ODg.*_ga_MY0CJTCDSF*MTY4ODIxNjc2Ni4zLjEuMTY4ODIxNzI1NC44LjAuMA..&_ga=2.165580406.814283844.1688209588-482508915.1688209588 . Pewnie dla Was to bułka z masłem, dla mnie wyzwanie. Jeszcze raz Was proszę o pomoc.
  3. Proszę Was o pomoc, chodzi o Google Sheets i Apps Script. Do sprawdzenia jest n adresów url - każdy z nich zawiera określoną liczbę znaków, określoną liczbę słów kluczowych - url - https://domena.pl/. - ilość znaków w tekście - ilość słów kluczowych. Czy należałoby opracować skrypt, jeżeli tak to jak, jak to zrobić, czy w ogóle się da. Może należałoby otworzyć link, policzyć znaki za pomocą jakieś wtyczki, ilość występowania słowa kluczowego ręcznie, a później sporządzić makro? Jak to zrobić? Jeszcze raz Was proszę o pomoc.
  4. Dzięki Mion. Za pomocą R można PRZEANALIZOWAĆ WIĘCEJ DANYCH, łączyć dane z różnych narzędzi, np. w Clusteric, jest możliwość pobrania danych z Ahrefsa, Majestica pod warunkiem, że wykupisz pakiet premium za ponad 1000 zł, możesz skorzystać z darmowego API od MOZ-a i wyodrębnić dane z Google Search Console. Masz racje, w pozycjonowaniu liczy się czas, ale, ja twierdzisz, R to "egzotyczny język"? O Pythonie też tak powiesz? Gość z Senuto ciekawie o R pisze Pisałem już o pobieraniu danych z Google Analitics, Search Console, w tym artykule jest też o wizualizacji za pomocą Ggplot , wyciągania linków ze stron konkurencji. Prosiłem Cię kiedyś o tzw. web scraping, jest też coś takiego w R Metod jest wiele, ale chodzi o koncepcje. Wiem, że wyciągają backlinki ze stron konkurencji za pomocą R, zresztą taka funkcja jest w Clastericu. A propos Clasterica podpowiedz mi jak za pomocą API,np darmowego MOZ-a wyciągać dane z GA i GSC? Albo Rapid API? Może podpowiesz coś mi o automatyzacji, np Mak'em? Skoro już piszę - podejmiesz się wyzwania?
  5. Chodzi o naukę R w SEO, poza tym mam mało czasu, zostały mi trochę więcej jak 2 tygodnie. Może znasz kogoś kto się tego podejmie?
  6. Ponawiam swoją prośbę, miałem nadzieję, że dam radę, jednak nie. Uczę się podstaw z tego kursu, jak pisałem https://www.youtube.com/watch?v=OYMiz2QheSQ&list=PLJpfWFOjv2_nGuUsWirGBx0-BEVcIUwhO&index=4 Korzystałem także z Senuto, na blogu mają wpis jak wykorzystywać R do pobierania danych z Google Search Console i Google Analitcs - https://www.senuto.com/pl/blog/jak-szybko-pobrac-dane-z-wyszukiwarki-google-oraz-google-analytics-w-r/#gref , jest też znalezisko SzlafRocka dotyczące, m.in. wyciągania błędów z Search Console - https://cran.r-project.org/web/packages/searchConsoleR/searchConsoleR.pdf . Jednak mam problem już przy samej instalacji, instalacji brakujących bibliotek, samej autoryzacji - kod z tego źródła https://github.com/sebaSEO/Senuto_art/blob/main/1.R - nic mi nie idzie, komendy są niedobre, w RStudio na czerwono, najprawdopodobniej przy mojej nikłej wiedzy samemu sobie nie poradzę. Proszę pomóc mi to ogarnąć.
  7. Dziękuję Ci SzlafRock serdecznie, bardzo przydatny link. Zapytam, zbierałeś kiedyś dane z Google Search Console i Google Analitics? Posługiwałeś się kiedyś API od MOZ-a, albo Google Cloud Platform? Może R służył Ci do wyciągania ze strony linków? Co prawda Clusteric "temat ogarnia", ale w tej chwili nie mówimy o tym. Nie jest to także dział zleceń, ale czy udzielisz w temacie R w SEO konsultacji?
  8. Zwracam się do Was z serdeczną prośbą - ponieważ zawalam terminy, rozwiązaniem dla mnie byłaby automatyzacja, np. przy pomocy Make'a i programowanie, np. R. Na teraz zająłem się R, np. uczę się z kursu Jacka Matulewskiego - Podstawy, Typy danych i zmienne. Damian Sałkowski zamieścił na blogu Senuto ciekawy artykuł "Jak szybko pobrać dane z wyszukiwarki Google oraz Google Analytics w R?" i tak na prawdę tym chce się zająć. Chciałem nauczyć się pobierać "hurtem" dane z Google Search Console, z Google Analitics przy wykorzystaniu API Google Cloud Platform. Doinstalowałem dodatkowe brakujące biblioteki ale po wpisaniu search_analitics("https://costam.pl) otrzymuje Error in search_analitics("https://costam.pl") : could not find function "search_analitics" Nie wiem co robić (pewnie błahostka dla Was). Jak to "ugryźć", jak się za to zabrać? Może podpowiecie mi, jak zbierać backlinki ze strony przy pomocy R?
  9. Dziękuję Jimmy za odpowiedź. Jest tych stron - 404, not found, 500, itd. opór. Jest 105 domen. Czy mam 648 razy wpisywać formułkę # Z witryny http://dyvantity.com usunięto większość linków, ale pominięto tą :http://dyvantity.com/msi-laptopy-gamingowe-k.html ? Trochę żmudna robota!
  10. Proszę o pomoc doświadczonych kolegów - przy pomocy Ahrefs Webmaster Tools przeprowadziłem mały "audycik" własnej strony. Analizując backlinki prowadzące do moich produktów widzę, że jest ich 648, np. http://www.harpendenairportcars.co.uk/komputer-, gamingowy-msi-k.html https://www.thygesenvietnam.com/zestaw-komputerowy-intel-core-i5-8gb-500gb-monitpr-led-24-k.html http://byhershop.com/komputer-stacjonarny-gamingowy-k.html i są to przeważnie linki prowadzące do obrazków jpg . Po drugie nasiliła się co m-c zna fala negatywnych komentarzy w marketplace. Czy jest jakaś metoda, żeby z tym walczyć? Na stronie http//widoczni.com/blog/nowy-pingwin-a-disavow-tool/ zapoznałem się z tym poradnikiem. Proszę mimo wszystko Was
  11. Dziękuję za podpowiedzi Pysiowi, ttah'owi, Mion'owi, szacunek Panowie. Niestety Pysiu, mam zainstalowaną Mozille i ten sposób nie może być. A IMPORTXML to nie jest jedno z wielu poleceń XPATH, które służy do pobierania danych z kodu źródłowego? Np. tytuł, meta description, nagłówek H1, dłg ciągu, canonical, itd? To co tu, tak rozumiem, powiedziałeś dotyczyło, m.in. "skrobania" cen na jakimś portalu, zeskrobania, np. tabeli ze strony, adresów e-mail, itp - takie tutoriale - https://www.youtube.[com]/watch?v=4A12xqQPJXU&t=136s , https://www.youtube.[com]/watch?v=3wV9JtRRLdQ to objaśniają. W tym konkretnym przypadku chodziło jak gościu tworzy zakładkę w chrome, wkleja w miejsce html kod java i wyświetlają mu się w niej linki do stron na jakieś zapytanie w Google. Dla Ciebie to pewnie bułka z masłem, a dla mnie problem. I oto chodziło w mojej pierwszej wypowiedzi. Poświęć trochę czasu i zobacz ten tutorial z YT. No dobrze, jak zwykle masz rację, ale co z tego wynika? Nie wiem jak znaleźć właściwą ścieżkę XPath w Chrome i wklejeniu jej do importxml. Wyjaśnisz to?
  12. Nie chodzi o takie harvestowanie. Raczej, jak mówią, web scraping. Analizę on-site można wykonać poprzez "przecrlowlowanie" serwisu i wyciągniecie danych z Screaming Froga, czy Sitebulba, jest to jednak zbyt proste - trzeba znać formuły IMPORTXML, QUERY, REGEX. Są strony, które wykonują scraping, truuu, octoparse, ale nie o to chodzi. Jest darmowy sposób i link z YT dałem wyżej. Dlatego prosiłem Cię o pomoc. Dlaczego wsadzasz mi w usta coś, co nie powiedziałem i nie napisałem Nie wiesz, czy nie chcesz? Wielu z tego forum jest już szefami swoich własnych firm, albo szefami w firmach ze względu na spore doświadczenie, dlatego tak szeroko opisałem problem.
  13. Zawsze się szanuję tych wymagających. Znasz rozwiązanie problemu, bo nie wiem, czy chcesz pomóc?
  14. Dzięki Ci Mion za podpowiedź, darmowe narzędzia to Twój mózg, myślenie, konkurencja, wiedza, ewentualnie "to napisz program", Excel, Google Sheets, formuły, GSC, GA, Google Data Studio, znam te odpowiedzi, ewentualnie "w wojsku byłeś?". Niestety, programować nie umiem, z myśleniem analitycznym też nie jest tak hop (wspomagaj się sztuczną inteligencją), starszych spec. to nawet się nie pytam -"nie wiesz tego?". Podpatrywać i uczyć się non stop. Tyle. Generalnie chodzi o to, że do zapamiętanej zakładki, zamiast adresu url zwróconego przez Google na zapytanie, np. smartfon Samsung Galaxy S20 trzeba wkleić kod java script, mieć skopiowanych 10 adresów z Google w innej zakładce, potem wkleić je sobie do Google Sheets, każdy z nich poddać poleceniom IMPORTXML -tzn. zwrócone wyniki - tytuł, meta description, nagłówki, zastosować formuły wyszukaj.pionowo, jeżelibłąd, dłg, do słów kluczowych tabele przestawne, formuła IMPORTDATA to już czarna magia - klucze API - nie ta liga i taką skróconą analizę szefowi mogę przedstawić. O linkowaniu nie mówię- tzn gdzie linkują - link building to jest osobny temat. I nie może to być płatne oprogramowanie, nie, nie.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności