Myślę, że koncepcja content marketingu zagościła w sieci na dobre. Wielu marketerów już tworzy wartościowe treści, a Ci którzy tego nie robią prawdopodobnie niedługo zaczną. Tworząc treści zależy nam mocno na tym, żeby faktycznie były wartościowe dla czytelników. Jednym z mierników ‘wartości’ danego materiału jest ilość reakcji jakie wywołuje w social mediach. Mam tutaj na myśli liczby lajków, poleceń, udostępnień czy komentarzy. Znajomość tych danych może dość jasno powiedzieć, czy dany tekst dobrze gryzie. W kwestii własnych materiałów raczej nie ma problemu z analizą takich danych, bo narzędzi i wtyczek, które dają taką możliwość jest cała masa. Schody zaczynają się w sytuacji, kiedy szukamy inspiracji i chcielibyśmy sprawdzić jakie treści dobrze rozchodzą się w sieci na stronach o tematyce podobnej do tej, która jest w obszarze naszych zainteresowań. Dzisiejsze ćwiczenie ma na celu pokazanie w jaki sposób sprawdzić liczbę reakcji w social mediach w odniesieniu do treści, których nie jesteśmy administratorami. Taka wiedza pozwoli Ci tworzyć treści bardziej angażujące i lepiej dopasowane do Twojej grupy docelowej.

Aby pokazać jak działają poszczególne narzędzia wykorzystałem Nowy Marketing. Jestem raczej na bieżąco z ich treściami, bardzo szanuję tą stronę i mam nadzieję, że nikt nie będzie miał mi za złe, że popracujemy akurat na ich treściach :). Zaczynamy.

  1. Potrzebne narzędzia

Przed rozpoczęciem konfiguracji potrzebujesz dostępu do paru narzędzi. Wszystkie są bezpłatne i do części z nich być może już masz założone konto. Do tego ćwiczenia potrzebujesz:

Google Docs (Spreadsheet) – FREE

Żeby korzystać z Google Docs potrzebujesz standardowe konto Google. Jeśli jeszcze takiego nie masz (co jest dość mało prawdopodobne 😉 ) to możesz również podpiąć swoje konto firmowe. W tym ćwiczeniu będziesz potrzebować dostęp konkretnie do Arkuszy Google. Zakładam tutaj, że masz już pewne doświadczenie z pracą w jakichkolwiek arkuszach kalkulacyjnych. Nic nie stoi na przeszkodzie, żeby wykorzystać również Excela. Decyzja należy do Ciebie.

Import.io – FREE

Import.io jest platformą dzięki, której możesz wydobywać dane z dowolnych stron internetowych bez pisania kodu. Narzędzie to pozwala tworzyć schematy działania (API) z wykorzystaniem metody point-and-click. To narzędzie zostanie wykorzystane do wyciągnięcia listy artykułów z analizowanej strony.

Sharedcount.com – FREE do 1000 zapytań dziennie.

Wykorzystując to narzędzie możesz sprawdzić jak konkretny URL rozchodzi się w sieci. Mamy tutaj dostęp do danych z FB, LI, G+, Pinteresta. Do niedawna dostępna była jeszcze opcja z Twitterem, ale ze względu na zmiany w API Twittera ta opcja nie jest już wspierana.

Przed przystąpieniem do dalszej części ćwiczenia upewnij się, że wszystkie dostępy masz założone i udało Ci się zalogować do usług.

Stworzenie listy treści analizowanej strony

W porządku, weźmy się do pracy.

Technika, która zostanie wykorzystana w tym ćwiczeniu to scraping. Niestety nie ma żadnego sensownego polskiego odpowiednika tej nazwy, bo przetłumaczone wprost jako ‘skrobanie’ zdecydowanie źle się kojarzy. Technika ta polega na wyciąganiu interesujących nas informacji ze stron www w sposób zautomatyzowany bez konieczności przeglądania strona po stronie.

Skrypty realizujące scraping można napisać samodzielnie, ale na szczęście istnieją narzędzia, które pozwolą nam to zrobić bez linijki kodu. W tym celu wykorzystamy wspomniane już import.io.

Zainstaluj wersję desktopową Import.io.

Po założeniu konta, warto zainstalować na swoim komputerze wersję desktopową. Działa stabilniej.

Jeśli chciałbyś poznać to narzędzie od podstaw to zachęcam do zapoznania się z kilkoma tutorialami dostępnymi na stronie import.io. Jeśli nie masz w tym momencie na to czasu to nie ma problemu. Postaram się wszystko opisać krok po kroku.

Czas zbudować Twojego pierwszego robota webowego, który wykona sporo pracy za Ciebie :).

Naszym celem będzie stworzenie listy artykułów, które pojawiły się na blogu. Wydobędziemy link do każdego artykułu, jego tytuł, datę publikacji, kategorię oraz link do zdjęcia z ‘okładki’.

Interesują nas wszystkie dane znajdujące się w zaznaczonej poniżej ramce.

Stworzenie nowego crawlera

Uruchom import.io.

Na widoku Dashboard kliknij button – New.

Następnie wybierz opcję Crawler -> New Crawler.

Uczenie robota.

Wpisz adres strony, którą chcesz analizować. Za pierwszym razem byłoby dobrze, żebyśmy pracowali na tym samym materiale, dlatego wpisz: http://nowymarketing.pl.

Po załadowaniu strony kliknij button I’m there!

Następnie kliknij przycisk Detect optimal settings.

W kolejnym kroku import.io przeładuje stronę wyłączając zbędne rzeczy (animacje, skrypty i ogólnie takie takie).

Upewnij się, że po przeładowaniu strony nadaj znajdują się dane, które chcemy wylistować. Jeśli jest wszystko OK to kliknij Yes.

W następnym kroku import.io zapyta Cię, jakiego typu dane są dostępne na stronie.

Lewa opcja sprawdzi się przy stronach produktu, lub konkretnego artykułu.

Nas interesuje opcja druga, gdzie analizować będziemy strony na której dostępna jest lista elementów, które nas interesują. W naszym przypadku to lista artykułów.

Wybierz opcję po prawej stronie.

W tym miejscu zaczyna się cała zabawa. Musimy nauczyć import.io w których miejscach są interesujące nas treści. Musimy wskazać, w jakich powtarzalnych blokach na stronie Nowego Marketingu znajdują się informacje o nowych wpisach.

Po dwóch poniższych screenach widać, jakie elementy są powtarzalne.

UWAGA. Na stronie NM na samej górze jest artykuł wyróżniony. Należy go pominąć. Ciebie interesują treści znajdujące się pod bannerem.

Aby narzędzie wiedziało, jakie dane będziemy zbierać należy zaznaczyć interesujący Cię obszar, a następnie wybrać opcję Train rows.

Jeśli poniższe grafiki nie wyjaśniają dokładnie co należy zrobić to polecam obejrzeć TEGO GIFa. [train rows.gif]

Operację tą trzeba powtórzyć przynajmniej dwa razy.

Przescrolluj stronę do kolejnego postu i powtórz operację. Zaznacz blok danych, a następnie kliknij Train rows.

W tym momencie jeśli wszystko poszło po Twojej myśli to na buttonie w prawym dolnym rogu powinieneś zobaczyć informację ‘I’ve got all 16 rows’. Jest to informacja o tym, ile powtarzalnych bloków na daj podstronie znalazł Twój robot. Wszystkie wyłapane bloki zaznaczone są na niebiesko.

Jeśli wszystko gra to możesz kliknąć przycisk:

Pierwszy krok mamy za sobą. W drugim kroku nauczysz swojego robota jakie konkretnie dane ma zbierać z zaznaczonych bloków. Nam będzie zależało na następujących informacjach:

  • Tytuł wpisu
  • Link do wpisu
  • Link do zdjęcia okładki
  • Data publikacji
  • Kategoria wpisu

Dane te będą umieszczane w kolumnach.

Wybierz teraz opcję +Add column.

W pierwszej kolejności dodamy link do zdjęcia na okładce.

Wpisz nazwę dla Twojej pierwszej kolumny np. Image. Następnie kliknij Done.

Po dodaniu kolumny kliknij miejsce w którym znajduje się zdjęcie okładki (1.). Po zaznaczeniu tego obszaru kliknij Train (2.)

Jeśli na ilustracjach jest coś niejasne to polecam kolejną animację. Jest dostępna TUTAJ [train rows. gif]

Powtórz ten proces dla wszystkich pozostałych danych. Poniżej ściągawka:

  • Kolumna ze zdjęciem – typ pola: IMAGE
  • Kolumna z tytułem – typ pola:LINK
  • Kolumna z kategorią – typ pola: TXT
  • Kolumna z datą – typ pola: DATE/TIME (jako format należy podać dd.mm.yyyy)

Powinieneś uzyskać efekt jak poniżej.

Jeśli widzisz wypełnioną tabelę to znaczy, że wszystko poszło dobrze i możesz kliknąć I’ve got what i need!

Nie wystarczy nam lista danych, które są wylistowane tylko na pierwszej stronie. Dlatego też musimy nauczyć Twojego robota jaka jest struktura danych na kolejnych podstronach i upewnić się, że nie ma tam żadnych niespodzianek. W kolejnym kroku przejdziesz przez kolejnych stron z listą artykułów, żeby Twój robot upewnił się, że wszystko rozumie poprawnie. Kliknij Add another page.

 

Zjedź do dołu strony i na paginacji kliknij kolejną podstronę.

Postępuj zgodnie z instrukcjami, które pojawiają się w prawym dolnym rogu. Program wymaga, żeby przetrenować robota przynajmniej na 5 kolejnych podstronach. Jeśli już to wykonasz kliknij I’m done training,

W tym momencie Twój robot jest już prawdziwym wymiataczem i rozumie wszystkie treści na stronie.

Kliknij Upload to import.io.

W tym momencie import.io otworzy nowe okno z opcjami umożliwiającymi konfigurację crawlera, ale to na razie zostawiamy.

Przygotowanie listy podstron, z których chcemy pobrać treści.

Twój robot wie już w jaki sposób czytać i interpretować treści na jednej podstronie. To co musimy zrobić teraz to nauczyć go w jaki sposób przechodzić na kolejne podstrony i wykonać tą samą robotę. W tym miejscu musimy zrozumieć według jakiego wzorca zmieniają się kolejne podstrony z listą postów. W przypadku stron opartych o silnik WordPress najprawdopodobniej będzie to miało składnię:

<adres strony www>/page/<numer strony>

W naszym przykładzie wygląda to następująco:

nowymarketing.pl/page/1

nowymarketing.pl/page/2

nowymarketing.pl/page/3

Itd.

W kolejnym kroku przekażemy naszemu robotowi jakie strony ma przeanalizować.

Żeby nie było konieczności ręcznego generowania listy linków z kolejnymi podstronami możemy wykorzystać do tego arkusz kalkulacyjny.

Wpisz pierwsze 2-3 linki z kolejnymi podstronami. Zaznacz wszystkie linki i przeciągnij zaznaczenie w dół tak, aby wygenerować kolejne numery podstron.

Powinieneś uzyskać taki efekt:

Jeśli coś jest niejasne to zajrzyj do TEJ [links.gif] animacji. Tam pokazałem co i jak.

Wróć do import.io.

Powinieneś zobaczyć coś podobnego do tego poniżej.

Z listy dostępnych opcji wybierz Bulk Extract:

Wklej listę linków, które wygenerowałeś przed chwilą. Liczba podstron, które chcesz analizować zależy od Ciebie.

Następnie wybierz opcję Run queries.

W tym momencie zaczyna się magia.

Co dokładnie się dzieje?

Twój robot wykonuje automatycznie następujące czynności:

  1. Wchodzi na daną podstronę, np. /page/1
  2. Wyszukuje blok treści, który wskazaliśmy przy nauce.
  3. W ramach bloku wyszukuje treści, które ekstraktujemy (tj. Zdjecie, tytuł, link, kategorię, datę)
  4. Wrzuca poszczególne elementy do tabeli.
  5. Kiedy skończy analizować jeden blok treści, przechodzi do kolejnego.
  6. Gdy skończy analizować daną podstronę, przechodzi do następnej.
  7. I tak działa do końca listy linków.

Po zakończeniu przetwarzania wszystkich linków zrób eksport treści do arkusza (Export -> Spreadsheet)

Następnie Zrób import treści do arkusza w którym tworzyłeś listę linków (File -> Import)

W oknie importu wybierz opcję Upload i dodaj przed chwilą stworzony plik.

Dane pliku z CSV najlepiej dodać do nowej zakładki. Jako znak separatora wybierz opcję automatycznego sprawdzenia znaku separatora. Powinno to wyglądać w taki sposób:

Po imporcie danych powinna pokazać się tabela z danymi wszystkich postów.

Import.io dodał kilka kolumn, które są związane z danymi, które ekstraktowaliśmy, ale niektóre dane nie są nam szczególnie potrzebne. Dlatego warto uporządkować arkusz i zostawić tylko te kolumny, które będą nam najbardziej przydatne.

Ja u siebie zostawiłem następujące dane:

  • title_text – tytuł postu
  • title – link do postu
  • data_source – data wpisu
  • category – kategoria wpisu
  • image – link do zdjęcia okładki

W tym miejscu warto zrobić sortowanie wszystkich postów po linku do postu.

Zaznacz wszystkie wiersze oraz kolumny i kliknij tą ikonę.

Następnie posortuj narastająco posty po kolumnie title (kolumna z linkiem do wpisu).

W efekcie masz przygotowaną ładną tabelę z listą postów i innymi przydatnymi informacjami. Teraz dodajmy do tego dane dot. social media.

Dodanie statystyk social media do każdego posta

Uruchom i zaloguj się na SharedCount. Przejdź na podstronę URL Dashboard, a następnie wybierz opcję Bulk Upload.

UWAGA. Napiszę to drugi raz, bo to ważne jest! W pliku z linkami w pierwszej kolejności polecam posortować wszystkie rekordy po kolumnie ‘title’. SharedCount czasami lubi pomieszać linki i żeby uniknąć błędów w danych warto wprowadzić sortowanie.

Po uruchomieniu okna Bulk Upload, wklej wszystkie linki z kolumny ‘title’.

Następnie kliknij Import URLs.

Proces analizy linków i dodawania danych potrwa od kilkunastu sekund do paru minut.

Po jego zakończeniu zobaczysz pełną listę analizowanych linków wraz z danymi dotyczącymi ich popularności z social mediach.

Pełną listę zapisz do pliku CSV wybierając opcję Export to CSV.

Przejdź do arkusza kalkulacyjnego na którym pracowałeś wcześniej.

Następnie wykonaj import (File->Import) danych z SharedCount. Najlepiej skorzystaj z tych samych opcji z których korzystaliśmy przy imporcie listy postów.

W nowej zakładce z danymi dotyczącymi social media posortuj tabelę po kolumnie URL.

Zaznacz wszystkie kolumny i skopiuj je zakładki w której masz pozostałe dane.

Jeśli potrzebujesz wsparcia to polecam TEGO [shares.gif] gifa.

Wklej dane dotyczące social media do zakładki z pozostałymi danymi.

Tadam! Gratulacje! Stworzyłeś listę artykułów z Nowego Marketingu oraz masz pełne informacje o tym jak każdy artykuł zachowywał się w mediach społecznościowych.

Dokładną analizę danych i wnioski pozostawiam Tobie :). Możesz sprawdzić jakie treści najlepiej działają na FB, co lepiej sprawdza się na LinkedIn, co ludzie bardziej lajkują, a co bardziej udostępniają. Z takich danych możesz się dowiedzieć naprawdę wielu ciekawych rzeczy.

Napisz mi koniecznie jak Ci się spodobało to ćwiczenie? Przyda Ci się taka wiedza? Co mógłbym zmienić i poprawić, żeby to ćwiczenie przyjemniejsze?

Share This