To co aktualnie się dzieje w świecie technologii WWW i w ISPRO

Praktyczne wskazówki na temat mikrotargetowania

Mikrotargetowanie jest procesem, który może przybliżyć Cię do osiągnięcia sukcesu komercyjnego. Polega na skrupulatnej analizie grupy docelowej i dopasowaniu przekazu reklamowego do odpowiednio wyznaczonych grup. O tym, czym dokładnie jest mikrotargetowanie, jakie techniki wykorzystuje się do analizy osobowości internatów oraz jaki wpływ na sukces wyborczy Donalda Trumpa miało zatrudnienie firmy zajmującej się analizą danych, pisałem w poprzednim wpisie. Tym razem skupię się na praktyce i przedstawię przydatne wskazówki, które pomogą Ci osiągnąć cel marketingowy.

Mikrotargetowanie w mediach społecznościowych

Bez względu na to, czy dopiero zaczynasz działalność, czy chcesz poprawić wyniki sprzedaży, mikrotargetowanie będzie miało znaczący wpływ na zwiększenie zasięgu i poprawę widoczności Twojej witryny.

Precyzyjne określanie grupy docelowej być może wydaje Ci się skomplikowane, w rzeczywistości jednak może okazać się łatwe, a do tego ciekawe. Jeśli pieczołowicie dobierzesz grupę docelową, kierując się założeniem „mikro”, a do tego przekaz marketingowy dopasujesz tak, że trafi on w sedno potrzeb i zainteresowań odbiorców, może okazać się, że zgromadzisz wokół swojej witryny osoby, które utożsamiają się z Twoim przekazem i będą aktywnie uczestniczyły w budowaniu silnej społeczności.

W przypadku e-commerce mikrotargetowanie może być realizowane przy pomocy różnych digitalowcyh strategii, a jednym z najbardziej istotnych narzędzi są media społecznościowe.

Poniżej opisuję trzy istotne techniki wykorzystywane do mikrotargetowania, których możesz użyć w mediach społecznościowych.

  • Precyzyjne określanie grupy docelowej z wykorzystaniem wewnętrznych danych z mediów społecznościowych (np. z Facebooka).

W tym wypadku możesz targetować kampanie reklamowe na kilka sposobów. Są nimi na przykład:

  • wybieranie określonych przedziałów wiekowych osób, do których mają trafić reklamy,
  • wybierając konkretne zainteresowania grupy docelowej,
  • określając dane demograficzne.

Jeśli zdecydujesz się kierować swoje reklamy do mikro grup, takie segmentowanie odbiorców może Ci pomóc. Facebook będzie wyświetlał reklamy tylko użytkownikom, którzy spełniają określone przez Ciebie kryteria.

  • Czynnik emocjonalny

W biznesie e-commerce niezwykle istotne jest dopasowanie przekazów do odbiorców na poziomie emocjonalnym. Ważne, aby zawartość reklamy trafiała w sedno (można nawet powiedzieć: w czułe punkty) i poruszała te aspekty, które są istotne dla Twoich odbiorców. W związku z tym mikrotargetowanie odgrywa bardzo ważną rolę w określaniu grup docelowych za pośrednictwem social mediów.

  • Targetowanie na podstawie analizy zachowań użytkowników mediów społecznościowych

Platformy społecznościowe mogą dzielić użytkowników na grupy zgodnie z ich zachowaniami w sieci. Daje to możliwość kierowania ich na strony, które pasują do ich zainteresowań. Portale społecznościowe pozwalają Ci też wybrać niewielkie podgrupy (podzbiory), po to, aby identyfikować i dobierać odbiorców na poziomie mikro.

Skup się na opcjach, które są dostępne w konkretnych mediach społecznościowych, np. na danych demograficznych, zainteresowaniach oraz zachowaniach i rozwijaj je. Korzystaj ze zoptymalizowanej strategii mikrotargetowania i kieruj reklamy do mikro grup za pośrednictwem mediów społecznościowych.

Analiza predykcyjna i mikrotargetowanie krok po kroku

O analizie predykcyjnej możesz przeczytać we wspomnianym wcześniej artykule Mikrotargetowanie, sukces przedsiębiorstwa i wygrana Trupma w wyborach – jaki jest ich wspólny mianownik?. Dowiesz się z niego, jakie są jej założenia teoretyczne.

A teraz skupimy się na praktycznych aspektach łączenia analityki predykcyjnej i mikrotargetowania:

  • Tworzenie zbioru danych

Określ tak precyzyjnie, jak to możliwe, dla jakiej grupy chcesz uzyskać dane (mogą to być np. osoby, które zainicjowały transakcję, ale jej nie dokończyły) oraz jaki cel chcesz osiągnąć.

Zbiór danych możesz stworzyć na podstawie informacji dostępnych w Twoim serwisie, takich jak historia zamówień, odpowiedzi na pytania z ankiety czy dane demograficzne. Dane możesz również zakupić od wyspecjalizowanych firm, zajmujących się zbieraniem i analizą informacji o użytkownikach internetu.

  • Analiza osób, które znalazły się w danym zbiorze i znalezienie ich cech wspólnych

Jeśli dokładnie przeanalizujesz wspomnianą wcześniej grupę osób, będziesz mógł wskazać ich cechy wspólne. Pomoże Ci to w zbudowaniu modelu służącego do kierowania reklam do innych użytkowników – takich, którzy mają cechy, jak osoby znajdujące się w analizowanym zbiorze.

  • Tworzenie zmiennej zależnej

Zmienna zależna służy do segmentacji danych i ich podziału na grupy (grupy te będą analizowane w modelu predykcyjnym). Możesz w tym celu wykorzystać SQL, czyli język zapytań służący do tworzenia i modyfikowania baz danych oraz wskazywania („wyciągania”) konkretnych danych z baz.

  • Tworzenie modelu predykcyjnego, który pobiera zmienną zależną

Model predykcyjny pobiera stworzoną zmienną i porównuje ją z innymi zmiennymi w zbiorze danych. Inne zmienne, które mogą Ci się przydać to np.  kraj zamieszkania, stan, kod pocztowy, płeć, stan cywilny etc.

  • Tworzenie modelu regresyjnego

Proces, który określa związki między zmienną zależną a innymi zmiennymi, podlegającymi analizie, nazywany jest modelem regresyjnym. W wyniku tego procesu otrzymujesz statystyczne korelacje dla każdej zmiennej. Pozwala on także określić wyniki dla całego modelu oraz wyniki dla poszczególnych zmiennych. Dzięki temu możesz wyeliminować wyniki z niskimi korelacjami do zmiennej docelowej.

  • Tworzenie powiększonej listy osób, które pasują do otrzymanych danych

Po wykonaniu wszystkich powyższych kroków, prawdopodobnie będziesz dysponować solidnym zbiorem danych demograficznych, konsumenckich czy innych istotnych informacji na temat użytkowników. Na tej podstawie będziesz mógł zidentyfikować więcej osób, które pasują do interesującej Cię grupy.

Jakie są zasady mikrotargetowania – przydatne wskazówki na koniec

W mikrotargetowaniu istotne jest przede wszystkim kierowanie swojego przekazu wyłącznie do osób, które wykazują zainteresowanie tematem oraz tworzenie przekazów, które pasują do stylu życia odbiorców czy ich statusu społecznego lub materialnego.

Wrażenie na odbiorcach można wywoływać na przykład poprzez używanie dialektów, profesjolektów czy socjolektów (czyli słów bądź wyrażeń wykorzystywanych przez określone grupy zawodowe czy społeczne), a także poprzez realizowanie pomysłów pasujących do ściśle określonych grup docelowych.

Ponadto ważne jest, aby wzbudzać ciekawość i aktywizować użytkowników. Jeśli trafisz w sedno i dobrze określisz mikro grupę, rozbudzisz jej ciekawość i zachęcisz do dalszych działań.

Nie zapomnij też o dopasowaniu formatów, które pasują do urządzeń najczęściej wybieranych przez grupę docelową. Nie bagatelizuj znaczenia urządzeń mobilnych. Pamiętaj, że coraz większa ilość Twoich klientów korzysta ze smartfonów częściej niż z komputerów i ma do nich dostęp niemalże 24 godziny na dobę.

Mikrotargetowanie, sukces przedsiębiorstwa i wygrana Trupma w wyborach – jaki jest ich wspólny mianownik?

Przekonanie o tym, że jeden komunikat reklamowy może trafić do masowego odbiorcy, odchodzi do lamusa. Za znacznie skuteczniejsze uważa się precyzyjne określanie mikro grupy docelowej i formułowanie przekazu, który trafi w specyficzne gusty jej członków. Przekonali się o tym nie tylko przedsiębiorcy z branży e-commerce, ale także członkowie sztabu wyborczego Donalda Trumpa. Zapraszamy Cię w świat mikrotargetowania.

Czym jest mikrotargetowanie?

Mikrotargetowanie (nazywane także targetowaniem niszowym – z angielskiego niche targeting) to proces, który polega na dokładnej analizie i selekcjonowaniu konsumentów oraz dzieleniu ich na odpowiednie grupy. Określając grupy docelowe, bierze się pod uwagę między innymi zainteresowania odbiorców, ich oczekiwania, potrzeby i pragnienia, a także demografię. Analizie poddawane są także zachowania konsumenckie. Wszystko po to, aby stworzyć i skierować do nich specyficzny przekaz – taki, który wzbudzi ich maksymalne zainteresowanie.

Celem mikrotargetowania jest jak najdokładniejsza selekcja grupy docelowej, po to, aby przekaz reklamowy trafił wyłącznie (lub w znacznej większości) do osób potencjalnie zainteresowanych danym produktem lub usługą. Mikrotargetowanie stoi nieco w opozycji do kampanii ATL (above the line), których nośnikiem są mass media i które kierują ten sam komunikat do odbiorcy masowego. W mikrotargetowaniu chodzi o dopasowanie przekazów do niewielkich, precyzyjnie dobranych grup.

Wydawać by się mogło, że nie ma w tym nic zaskakującego i innowacyjnego. W praktyce jednak implementacja procesu mikrotargetowania do strategii marketingowej e-commerce jest jedną z najważniejszych dróg do podnoszenia pozycji danej strony w rankingach Google.

Mikrotargetowanie i Big Data, czyli jak poznać użytkowników internetu?

Mikrotargetowanie może być skuteczną formą marketingu i wywoływać reakcje w odbiorcach, szczególnie wtedy, gdy skupia się na analizie profili w mediach społecznościowych. Znajomość zainteresowań odbiorców i wiedza na temat ich potrzeb oraz pragnień może pomóc Ci dopasować przekaz w taki sposób, aby wywołał on określone reakcje. Jednak czy takie poznanie zachowań internautów jest możliwe?  Owszem, jest. Aby to zrozumieć, należy przywołać termin, który wiąże się bezpośrednio z mikrotargetowaniem – pojęciem tym jest Big Data (więcej informacji na ten temat znajdziesz a artykule Systemy Big Data i Internet of Things).

Termin Big Data odnosi się do różnorodnych, dużych i zmiennych zbiorów danych. Ich analiza i przetwarzanie często nie są łatwe, jednak mogą przynieść nową wiedzę i wymierne korzyści. Określenia Big Data używa się także w kontekście elektronicznych śladów, jakie zostawiasz za sobą w sieci. Może to być na przykład kliknięcie „wezmę udział” przy wydarzeniach na Facebooku, każdy „like”, zakupy z użyciem karty płatniczej, aplikacje, z których korzystasz, „meldowanie się” w różnych miejscach za pośrednictwem Facebooka czy zapytania, jakie wpisujesz w wyszukiwarkę. Na co dzień możesz pewnie zauważyć, że to, co wyszukujesz w Google i to, jakie strony odwiedzasz, ma odzwierciedlenie w reklamach, które widzisz w sieci. Na przykład – w popularnym sklepie internetowym szukasz butów trekkingowych, po czym opuszczasz stronę (niezależnie od tego, czy poszukiwania okazały się udane, czy też nie). Co się dzieje potem? Przez najbliższe dni obserwujesz, zarówno na portalach społecznościowych, jak i innych stronach, które odwiedzasz, że większość reklam dotyczy właśnie butów i akcesoriów trekkingowych.

Jak widać, Twoja aktywność w sieci pozostawia ślady, które są skrupulatnie zbierane i analizowane, a potem wykorzystywane na przykład w celach komercyjnych. O tym, co i w jaki sposób można wyczytać na podstawie aktywności w sieci, dowiesz się już za chwilę.

Jakie techniki wykorzystuje się do analizy osobowości internautów?

Istnieją pewne zaawansowane techniki, służące do analizy zachowań i osobowości użytkowników internetu, na czele z użytkownikami mediów społecznościowych. Dwie najbardziej znane metody to OCEAN oraz IBM.

MODEL OCEAN

Został opracowany na początku lat 80. Zgodnie z jego założeniami charakter konkretnej osoby można określić (zmierzyć) przy pomocy pięciu wymiarów osobowości:

  • otwartości (openess),
  • sumienności (conscientiousness),
  • ekstrawersji (extroversion),
  • zgodności (agreeableness),
  • neurotyczności (neuroticism).

Pozyskanie i analiza takich danych mogą dać odpowiedź na pytania dotyczące osobowości, potrzeb i pragnień danej osoby, a także przewidzieć jej zachowania. Niegdyś kłopot stwarzała jednak konieczność wypełniania długiej ankiety w celu zdobycia wartościowych informacji.

Problem został rozwiązany przez psychologa Michała Kosińskiego, studenta i pracownika Centrum Psychometrii w Laboratorium Cavendish uniwersytetu Cambridge. W początkowych etapach badań Kosiński stworzył aplikację dla Facebooka – użytkownicy brali udział w quizie, odpowiadali na pytania dotyczące ich charakteru i zachowania, a na koniec otrzymywali swój model osobowości. Naukowcy z Cambridge natomiast – informacje niezbędne do analizy. Popularność aplikacji była ogromna – swoje dane udostępniły miliony ludzi.

Po obliczeniu wartości OCEAN dla danego użytkownika Michał Kosiński i jego współpracownicy porównywali wynik z aktywnością w sieci danej osoby – co polubiła, co udostępniła na Facebooku, jaką wpisała płeć, jaki wiek, miejsce zamieszkania, edukację itp. Wnioski, jakie wyciągnięto, były zaskakujące. Według Kosińskiego na podstawie 68 polubień na Facebooku można określić np. kolor skóry danego użytkownika, jego orientację seksualną, upodobania polityczne, stosunek do religii, alkoholu, papierosów, narkotyków, stopień inteligencji, a także to, czy jego rodzice do 21. roku życia tej osoby pozostawały w związku, czy też nie. Im więcej razy dana osoba kliknie „like”, tym lepiej da się przewidzieć jej zachowanie. Do tej szczegółowej analizy bierze się pod uwagę także zdjęcia oraz ilość kontaktów, a nawet czujnik ruchu w telefonie (nawet gdy telefon jest offline).

Wykorzystując model OCEAN i analizę aktywności użytkowników internetu można nie tylko przeanalizować dane badanych osób, ale także szukać określonych typów osobowości.

METODA IBM

Metoda ta zwana jest także analizą predykcyjną. Polega na analizie istniejących danych, wyciąganiu z nich wniosków oraz wydobywaniu informacji. Celem jest oczywiście przewidywanie nadchodzących zdarzeń i trendów oraz określanie wzorów zachowań konsumentów.

W analizie predykcyjnej analizuje się niewielką grupę osób, które już skorzystały z Twoich usług lub kupiły Twoje produkty. Na tej podstawie buduje się tak zwany model predykcyjny, który pomaga zidentyfikować zbiór cech wspólnych dla wielu użytkowników. Takimi cechami mogą być np.: wysokość odchodów, miejsce zamieszkania, stan cywilny, liczba dzieci, a nawet konkretne zainteresowania. Istotne jest to, aby wydobyć wyjątkowe cechy, łączące osoby z jednej grupy.

Dane, na podstawie których dokonasz analizy predykcyjnej to np. historia zamówień Twoich klientów czy odpowiedzi na pytania zamieszczone w ankiecie. Istnieje też możliwość zakupu danych konsumenckich i demograficznych – zbieraniem takich informacji zajmują się wyspecjalizowane firmy.

Na podstawie analizy osób, które już skorzystały z Twoich usług, możesz oszacować, jakie charakterystyczne cechy posiadają Twoi klienci i jak budować przekazy reklamowe, które będą odpowiedzią na te cechy.

Przygotowując się do analizy predykcyjnej, możesz zadać sobie kilka pytań, które pomogą Ci określić kierunki działań:

  • Kto jest moim dotychczasowym klientem?
  • Co mają ze sobą wspólnego moi klienci?
  • Które inne osoby mają takie same cechy, co dotychczasowi klienci?
  • Jak dotrzeć do nowych klientów?
  • Jak rozszerzyć bazę klientów, znając ich specyficzne upodobania?

Czy mikrotargetowanie ma związek z sukcesem wyborczym Donalda Trumpa?

Dane pozyskane na podstawie analiz zachowań internautów nie są wykorzystywane wyłącznie w branży e-commerce. O skuteczności mikrotargetowania można przekonać się, analizując przebieg kampanii i wyniki wyborów prezydenckich w Stanach Zjednoczonych z 2016 roku. Sukces wyborczy Donalda Trumpa, według przypuszczeń wielu badaczy, jest oparty w dużej mierze właśnie na mikrotargetowaniu wyborców.

Pod koniec 2014 roku sztab wyborczy Donalda Trumpa zatrudnił firmę Cambridge Analytica, która, w największym uproszczeniu, zajmuje się analizą danych. Michał Kosiński (odpowiedzialny za wdrożenie modelu OCEAN i analizę zachowania internautów), jak sam twierdzi, nie ma nic wspólnego z działaniami tego przedsiębiorstwa. Nie da się jednak ukryć, że firma w dużej mierze oparła swoje działania na wynikach doświadczeń polskiego psychologa.

Przedstawiciele firmy twierdzili, że nie można odnieść sukcesu, planując kampanię wyborczą tylko na podstawie danych demograficznych. Podział społeczeństwa na jednolite grupy i wysyłanie takiego samego przekazu do wszystkich kobiet, tylko dlatego, że mają taką samą płeć, czy do Afroamerykanów, ponieważ łączy ich kolor skóry, jest bezsensowny.

Podczas jednego z wystąpień, założyciel Cambridge Analityca, Alexander Nix, oznajmił, że jego firma opracowała system, który może obliczyć, jaką osobowość ma każdy dorosły obywatel USA. Wykorzystuje się do tego psychologiczną analizę behawioralną na podstawie modelu OCEAN, analizę Big Data i reklamę celową (dopasowującą się do jak najbardziej do charakteru konsumentów).

Ponieważ w USA większość danych osobowych jest na sprzedaż, firma Cambridge Analityca kupiła wszystko, co było możliwe – listy wyborców, wypisy z ksiąg wieczystych, listy członków organizacji, dane medyczne czy subskrypcje czasopism. Dane te porównano z Big Data internautów (np. polubieniami na Facebooku) i obliczono model OCEAN. Wyniki analizy pozwoliły na określenie osobowości wyborców, ich realnych pragnień, potrzeb i obaw.

Dzięki takiej wiedzy komunikaty wyborcze Trumpa mogły trafiać w sedno upodobań różnych grup wyborców. Mówi się, że między innymi tym należy tłumaczyć sprzeczności pojawiające się w wypowiedziach obecnego prezydenta USA.

W trzecim dniu prezydenckiej debaty Trump-Clinton, sztab Trumpa wysłał 175 000 komunikatów (głównie za pośrednictwem Facebooka). Różniły się one minimalnie – tytułami, kolorami, śródtytułami, filmami czy zdjęciami. Wszystko po to, aby jak najbardziej dopasować przekaz do odbiorcy.

Te zaskakujące informacje mogą wydać się nieprawdopodobne i z pewnością nikt nie może w 100% potwierdzić, że firma Cambridge Analityca jest odpowiedzialna za wygraną Donalda Trumpa. Daje to jednak pole do własnej analizy i interpretacji – jak kandydat, którego pozycja w sondażach nie była najwyższa, zdobył poparcie Amerykanów i stał się prezydentem Stanów Zjednoczonych.

Mikrotargetowanie jest zagadnieniem niezwykle interesującym i obszernym. Wyniki wyborów prezydenckich w Stanach Zjednoczonych mogą tylko potwierdzać skuteczność tej metody. W kolejnych wpisach poznasz praktyczne wskazówki na temat mikrotargetowania w mediach społecznościowych, a także sposoby na wdrażanie analizy predykcyjnej w Twojej firmie.

Systemy Big Data i Internet of Things

Internet of Things (Internet rzeczy, IoT) opisuje koncepcję, której twórcą był Kevin Ashton. Oznacza ona ekosystem, gdzie przedmioty komunikują się  z komputerami przez sensory. Rozwój dostępu do sieci sprawił, że idea ta zyskała uznanie wśród firm i jest wskazywana jako jeden z najważniejszych punktów rozwojowych światowej gospodarki. IoT znalazło wiele zastosowań, poczynając od miniaturowych dodatków do ubrań, przez automatykę budynkową, inteligentne miasta czy gospodarkę wodną.

Mówiąc o zastosowaniu podejścia Internet of things należy podkreślić jego wpływ na marketing. Liczba danych wciąż rośnie, a dzięki ekosystemowi możliwe jest ich wygodne zbieranie, przetwarzanie oraz spersonalizowana komunikacja. Dzięki temu podejściu, można w zwiększyć zaangażowanie klientów oraz zagwarantować im wartość dodaną.

Internet of Things

Kolejnym przykładem zastosowania Internet of Things jest wdrożenie rozwiązań klasy PredictiveAsset Management. Są to systemy dzięki którym możliwe jest zbiór i analiza danych opisujących funkcjonowanie maszyn oraz urządzeń. Nie ma znaczenia czy są to funkcjonalności silników samolotów czy turbiny wiatrowej, idea działania jest taka sama. Dane pomiarowe zbierane przez czujniki są wysyłane do systemu centralnego, tam są przechowywane i analizowane. Na ich podstawie opracowywane są modele analityczne, dzięki którym możliwe jest m.in. przewidzenie wystąpień awarii, zbieranie informacji na temat nieprawidłowości działania maszyn lub nieefektywne ich użycie. Dzięki tym danym  możliwe jest opracowanie automatyzacji i budowy inteligentnego systemu. Dzięki temu, Inżynierowie będą mogli natychmiast zareagować w przypadku wystąpienia nieprawidłowości. Dla biznesu oznacza to minimalizację przestojów pracy oraz optymalizację działań zespołów serwisowych. Można zauważyć zalety rozwiązań IoT:

  • Redukcja kosztów,
  • Zwiększenie produktywności,
  • Lepsze wykorzystanie kapitału,
  • Poprawa bezpieczeństwa pracowników,
  • Lepsze relacje z klientami.

Estymacje McKinsey Global Institute pokazują minimalną wartość rynku IoT na świecie, która w 2025 roku osiągnie 4 bln dolarów, przy założeniu dynamicznego scenariusza kwota ta może wzrosnąć do 11 bln. Szacunki Gartnera zakładają, że w 2020 roku ponad 25 mld urządzeń będzie podłączonych do sieci. Jest to bezpieczniejsza wersja estymacji, inne mówią nawet o kilkuset miliardach w ciągu kolejnej dekady.

Big Data

Big data

 Gwałtowny wzrost liczby danych ich zmienność oraz częstotliwość powstawania zostały określone mianem Big Data. Tę nazwę nadaje się także ustrukturyzowanym bądź nie, zbiorom danych, których przetwarzanie za pomocą ogólnie dostępnych rozwiązań informatycznych (np. relacyjnych baz danych) jest niemożliwa. Zwiększenie mocy obliczeniowej i obszarów pamięci jest nieskuteczne. Wynika to z faktu, że te ograniczenia wymagają nowego podejścia do przetwarzania, filtrowania oraz analizy dużych liczb danych.

Analitycy firmy Gartner twierdzą, że Big Data to źródła danych o dużej objętości, zmienności i różnorodności, wymagają one innowacyjnych modeli przetwarzania, dzięki czemu możliwe jest ich zrozumienie i podejmowanie słusznych decyzji.

Big Data nie odnosi się wyłącznie do danych, oznacza również zbiory źródeł i zakłada miary je charakteryzujące, zwane cechami 3V:

  • Volume (ilość danych generowanych w procesach),
  • Variety (różnorodność typów i struktur danych),
  • Velocity (prędkość generowania nowych danch).

Dodatkowo przywoływanymi cechami są veracity, czyli prawdziwość i dopasowania danych, oraz value – wartość generowanych danych w procesach biznesowych, które oznaczane są kolejno jako 4 i 5V.

Kolejnymi charakterystycznymi własnościami Big Data są:

  • zmienność populacji,
  • przetwarzanie danych w źródła,
  • rozproszenie zbiorów danych lub punktów pomiarowych,
  • znaczące zmiany charakteru lub postaci informacji otrzymanych w wyniku analizy masowych danych źródłowych.

Obecnie wyzwaniem jest nie tylko przetwarzanie masowych źródeł danych, ale zmiana sposobu ich zbierania, która pozwoli na gromadzenie i integrację wielu ich typów pochodzących z różnych źródeł. Ich łączenie, których celem jest uzyskanie efektu syngerii i utworzenie nowych informacji jest zadaniem, jakie w przyszłości prawdopodobnie zostanie wykonane.

Big Data i Internet of Things

IoT oraz Big Data są istotnymi partnerami, szczególnie w przedsiębiorstwach. Wiele działań Internet of Things jest niekompletnych, jeśli nie jest wspierane przez Big Data. Wszystkie połączone przyrządy oraz algorytmy potrzebują dużej ilości danych. Organizacje używające IoT muszą wiedzieć o związku z Big Data. Ten rodzaj połączenia sprawia, że nowe rozwiązania mogą dostarczyć przydatnych narzędzi lub usług, a także zbierać dane na ten temat. Zebrane informacje muszą być zgromadzone, przetwarzane oraz analizowane, dzięki czemu można zyskać nowe spostrzeżenia, które pozwolą na poprawę funkcjonowania przedsiębiorstwa.

Internet of Things oraz Big Data są strategicznymi partnerami zwłaszcza w przedsiębiorstwie. Wiele operacji Internet of Things jest niekompletne bez wzmianki o Big Data. Wszystkie podłączone urządzenia, czujniki oraz algorytmy wymagają dużej ilości danych.

Wszystkie organizacje używające IoT muszą brać pod uwagę jego symbiotyczny związek z Big Datą. Dzięki takiemu połączeniu nowe wdrożenia mają duży wpływ, mogą dostarczyć użytecznych narzędzi czy usług, a także gromadzić odpowiednie dane. Podobnie jak w przypadku Big Data, gromadzone dane musza być przetwarzane i analizowane, aby pozyskać nowe informacje i spostrzeżenia, które mogą poprawić działalność przedsiębiorstwa.

Zarządzanie i wyodrębnianie wartości z danych Internet of Things jest dużym wyzwaniem, kreującym wizerunek firmy. Organizacje muszą ustanowić odpowiednią platformę do analizy danych Internetu rzeczy. Dodatkowo należy pamiętać nie wszystkie dane są dla nich tak samo ważne.

Symbiotyczne zależności pomiędzy systemem Big data i Internet of Things możemy zaobserwować w różnych dziedzinach przemysłu, rolnictwie czy systemach społecznych.

Przedsiębiorstwa korzystające z Big Data i Internet of Things

Big Data Internet of Things

UPS

 Jeden z liderów przewoźników na świecie wykorzystuje Big Data, co zapewnia oszczędność pieniędzy, poprawę efektywności oraz zmniejszenie wpływu na środowisko. Firma korzysta z czujników instalowanych na pojazdach dostawczych, dzięki czemu monitorowana jest prędkość, przebieg, liczba przystanków, a nawet sprawność techniczna silnika. Jak podaje UPS, czujniki zbierają ponad 200 danych na temat każdego pojazdu, co skutkuje 80 000 informacji na temat wszystkich pojazdów każdego dnia. Dzięki temu możliwa jest minimalizacja zużycia paliwa bądź emisji szkodliwych substancji.

Big Data jest też wykorzystywana przez UPS w projekcie ORION (On-Road IntegratedOptimization and Navigation). Gromadzenie danych na temat dostaw, efektem jest optymalizacja tras dostarczania oraz podwyższenia wydajności firmy. Przedsiębiorstwo planuje wprowadzić projekt ORION na wszystkich trasach w Ameryce Północnej. Ma się to wydarzyć w 2017 roku.

VirginAtlantic

Firma VirginAtlantic to brytyjskie linie lotnicze, które wykorzystują IoT do połączenia samolotów – Boeing 787 i podłączonych do nich urządzeń ładunkowych. Każdy z nich wyposażony jest w części generujące duże ilości danych. Dyrektor IT – David Bulman, twierdzi że każdy lot może produkować ponad pół terabajta danych. Nie wszystkie ze zbieranych danych są w pełni wykorzystywane,  jednak ich gromadzenie pozwala na przewidywanie i konserwacje samolotów oraz kontrolę zużycia paliwa.

John Deere

Lider w dziedzinie produkcji sprzętu rolniczego stworzył system łączący Big Data z Internet of things, który przy użyciu czujników monitoruje poziom wilgotności, po czym wysyła dane za pośrednictwem połączenia bezprzewodowego. Czujniki środowiskowe pozwalają na pomiar

  • temperatury gleby i powietrza,
  • wilgotności,
  • promieniowania słonecznego,
  • opadów.

Gromadzenie tych danych, pomagają rolnikom ustalić moment osiągnięcia optymalnego poziomu nawilżenia przez rośliny. Dzięki temu optymalizowany jest proces nawilżania.

TempuTech

TempuTech  to kolejny przykład firmy mającej wpływ na rolnictwo dzięki zastosowaniu Big Data i Internet of Things. W ofercie posiada systemy monitorujące optymalne przechowywanie ziarna oraz wykrywanie potencjalnego zagrożenia elewatorów zbożowych. Awarie typu połamanie pasów bądź łożyska są kontrolowane, dzięki monitorowaniu wilgoci i temperatury w pojemnikach z ziarnami. W efekcie możliwe jest odpowiednie ustawienie napowietrzenia oraz wentylacji. Gromadzone w systemie dane są przesyłane do innych rolników, którzy są w stanie przewidzieć zmiany wilgotności i temperatury, dzięki informacjom na temat zmian w pogodzie.

Disney World Magic BandBig data MagicBands

Disney Word Magic wykorzystuje zarówno Big Data jak i Internet of Things. Firma stworzyła Magic Band – opaskę wyposażoną w czujniki, dzięki którym wczasowicze mogą sprawnie poruszać się po całym Disney World. Dzięki nim, możliwe jest zameldowanie w pokojach hotelowych, zakup jedzenia, rezerwacja karnetów oraz korzystanie z atrakcji znajdujących się w parku rozrywki.

Wprowadzenie opasek pozwala firmie na gromadzenie danych na temat przepływu odwiedzających na terenie całego parku. Dzięki temu możliwe jest ugoszczenie większej liczby osób, optymalizacja zarządzania personelem oraz atrakcjami, czy regulacja kolejek w obiektach na terenie parku.

Barcelona, Hiszpania

Barcelona słynie z innowacji technologicznych, każdego roku odbywa się tam Mobile Word Congress. W mieście można znaleźć inteligentne parkometry, które przy użyciu WiFi działają na całym jego terenie. Dzięki temu mieszkańcy mogą uzyskać aktualne informacje na temat wolnych miejsc parkingowych i opłacić je przez telefon.

W Barcelonie można też zobaczyć inteligentne przystanki autobusowe. Informacje na temat czasu odjazdu przedstawiane są na panelach dotykowych. Sieć czujników rozmieszczonych w całym mieście, przedstawia pasażerom informacje na temat temperatury, jakości powietrza, poziomu hałasu oraz ruchu pieszych.

Wszystkie dane, udostępnianie we wcześniej wspomnianych miejscach, pochodzą z systemu Big Data, który gromadzi i analizuje dane z całego miasta. Dzięki temu możliwe jest usprawnienie transportu publicznego, propozycja optymalnych rozwiązań turystycznych, a także wydajny plan wydarzeń kulturowych.

Przemysł 4.0 (Industry 4.0)

Przemysł 4.0. IoT bazuje na Big Data i Internet of Things. Ma on doprowadzić do połączenia maszyn produkcyjnych z siecią  przedsiębiorstwa. Dzięki temu dane zbierane są na bieżąco. W efekcie ma powstać inteligentna fabryka, która pozwoli na produkcję pojedynczych produktów zgodnie z indywidualnymi potrzebami klienta. W tym samym czasie zbierane informacje, pozwalają na przewidywanie i zapobieganie awariom. Skutkiem jest przeciwdziałanie przestojom pracy firmy oraz automatyzacja produkcji i wzrost jej opłacalności.

Internet-of-Things

Lista firm z różnych branż rynku światowego, które korzystają z Big Data i Internet of Things jest bardzo duża. Opisane technologie znalazły zastosowanie w dziedzinach takich jak:

  • rolnictwo,
  • transport,
  • elektronika,
  • medycyna,
  • logistyka.

Big Data i Internet of Things to dwa niezależne zjawiska. Jednak ich powiązanie pozwala na wiele zmian, które pokazują, jak można zoptymalizować działania na wielu płaszczyznach życia ludzkiego.

Systemy kontroli wersji (VCS) – Git, SVN, CVS, Mercurial, Bazaar – który wybrać ?

Systemy kontroli wersji (ang. VCS – version control system) jest oprogramowaniem użytecznym w czasie realizacji każdego projektu programistycznego. Pozwala na śledzenie zmian w kodzie źródłowym. W związku z tym, możliwe jest przywracanie starszych wersji plików z kodem, które zostały wykonane przez różne osoby w dowolnych momentach. Systemy kontroli wersji dają możliwość odtworzenia całego projektu z wcześniejszych prac, np. kilku tygodni lub miesięcy. W dodatku można porównać wprowadzone zmiany. Dzięki temu w razie ewentualnych błędów bądź utraty danych, można je odtworzyć oraz naprawić.

Funkcje systemu kontroli wersji

  • przechowywanie i kontrola dostępu do plików związanych z projektem,
  • historia zmian,
  • śledzenie modyfikacji zachodzących w poszczególnych plikach,
  • pełna dokumentacja wprowadzanych zmian,
  • możliwość tworzenia i śledzenia różnorodnych konfiguracji oprogramowania,
  • udostępnianie kolejnych wersji poszczególnych plików.

Funkcje związane z organizacją pracy zespołu rozwijającego oprogramowanie:

  • kontrola dostępu do plików dla uczestników,
  • synchronizacja zmian wprowadzana przez różnych autorów,
  • praca w środowisku rozproszonym w sieci komputerowej,
  • kontrola etapów rozwijania projektu,
  • rozwiązywanie konfliktów pomiędzy zmianami.

Rodzi się pytanie który system kontroli wersji wybrać?

Typy systemów kontroli wersji

Trzy podstawowe rodzaje oprogramowania to :

  • lokalne,
  • scentralizowane
  • rozproszone.

Systemy lokalne powalają na stworzenie repozytoriów danych tylko na lokalnym komputerze, czyli używać ich może tylko jedna osoba. Ze względu na brak możliwości współdzielenia, obecnie jest to narzędzie rzadko wykorzystywane. Częściej używane są systemy kontroli wersji scentralizowane (oparte na architekturze klient – serwer) oraz rozproszone (praca w sieci P2P). W pierwszym przypadku repozytoria danych są przechowywane na jednym serwerze, zaś w drugim na serwerze i komputerach użytkowników.

Lokalne systemy kontroli wersji

lokalne systemy kontroli wersji

Wiele osób decyduje się na kopiowanie plików do innego katalogu oznaczanego odpowiednią datą. Ta metoda jest często wybierana ze względu na łatwość wykonania. Jednakże, trzeba zauważyć, że jest to opcja podatna na błędy. Łatwo pomylić foldery, omyłkowo zmodyfikować pliki albo skopiować złe dane. Rozwiązaniem tego problemu, było stworzenie bazy danych, w której przechowuje się wszystkie zmiany, jakie się dokonywały na śledzonych plikach.

Najpopularniejszym narzędziem lokalnego VCS był system RCS (Revision Control System). Nadal można go znaleźć na wielu komputerach, np. system Mac OS X rcs udostępnia go po zainstalowaniu narzędzi programistycznych. Jego działanie polega na zapisywaniu danych różnicowych, z każdej dokonanej modyfikacji pliku. System automatyzuje proces tworzenia i przechowywania wersji projektu. Kolejne zmiany są rejestrowane i dokumentowanie, dzięki czemu możliwe jest uzyskanie historii zmian. RCS był przygotowywany z myślą o zarządzaniu wersjami kodu źródłowego, jednak pozwala też na pracę z dowolnymi plikami tekstowymi. W efekcie, system jest w stanie zarządzać wersjami kodu programu oraz dokumentacją w różnych formatach.

RCS jest bardzo prosty w użyciu, posiada też dobrą dokumentację. Do każdego z poleceń dołączone są dokumenty oraz artykuł autora systemu. Niewątpliwymi zaletami oprogramowania jest prostota, stabilność, intuicyjna konfiguracja oraz praktyczna bezbłędność. Jest on bardzo przydatny szczególnie dla początkujących użytkowników.

Scentralizowane systemy kontroli wersji

scentralizowany system kontroli wersji

Potrzeba współpracy w trakcie rozwijania projektu z odrębnych systemów wpłynęła na utworzenie scentralizowanych systemów kontroli wersji (np. CVS). Składają się z jednego serwera, gdzie zapisane są wszystkie śledzone pliki. Klienci mogą się z nim połączyć i uzyskać dostęp do najnowszych wersji. Dzięki temu rozwiązaniu, każdy może sprawdzić, co robią inni uczestnicy projektu. Dodatkowo, w porównaniu z lokalnymi bazami danych, system CVS jest dużo łatwiejszy w zarządzaniu.

System CVS (ang. Centralized Version System) jest oparty na RCS. Realizuje wszystkie funkcje RCS, wykorzystuje go też do rejestrowania zmian w śledzonych plikach. Repozytorium CVS przechowuje informacje na temat drzew katalogów, jakie zawierają pliki objęte kontrolą wersji. System składa się z jednego programu cvs, który udostępnia polecenia odpowiedzialne za wywołanie funkcji systemu. Projekty zarządzane przez RCS można przenieść do CVS.

System kontroli wersji CVS umożliwia:

  • Zarządzanie dużymi projektami,
  • Równoległą pracę wielu autorów,
  • Synchronizację zmian,
  • Decentralizację i rozproszenie pracy zespołów twórców,
  • Synchronizację repozytoriów rozproszonych w sieci komputerowej,
  • Złożoną konfigurację i zarządzanie repozytorium.

Zaletami systemu CVS jest możliwość śledzenia zmian wielu autorów oraz łatwiejsze zarządzanie niż w przypadku lokalnych baz każdego uczestnika projektu. Problematyczne może okazać się scentralizowanie danych, które zostaną utracone w przypadku awarii serwera centralnego. Jednak jest to ryzyko, które istnieje zawsze, jeśli cała historia projektu znajduje się w jednym miejscu.

Rozproszone systemy kontroli wersji

rozproszony system kontroli wersji

W systemach DVCS (ang. Distributed Version Control System) klienci posiadają kopię całego repozytorium. Dzięki temu, nawet jeśli jeden z serwerów ulegnie awarii, odzyskanie danych nie stanowi problemu. Większość z tych systemów umożliwia współpracę różnych grup autorów nad tym samym projektem. Tę architekturę wykorzystują Git, Mercurial i Bazaar.

Rozproszony system kontroli wersji – zalety

  • Bezpieczeństwo danych – nawet jeśli centralny serwer ulegnie awarii, kopie repozytoriów znajdują się u wszystkich uczestników projektu.
  • Szybkość wprowadzania zmian – można wprowadzać zmiany do repozytorium bez połączenia ze zdalnym serwerem.
  • Łatwość dodawania nowych uczestników projektu.
  • Intuicyjne tworzenie branchy – autorzy mogą tworzyć prywatne, eksperymentalne gałęzie, dzięki czemu przeprowadzą testy bez wprowadzania zmian na centralnym serwerze.

Jednym z najpopularniejszych rozproszonych systemów kontroli wersji jest Git. Jego twórcą jest Linus Torvalds. Git miał być narzędziem wspomagającym rozwój jądra Linux. Oprogramowanie posiada licencję GNU GPL wersja 2. Git jest dobrym wsparciem dla rozgałęzionego procesu tworzenia oprogramowania. Dodatkowo, pozwala na pracę bez połączenia z serwerem zdalnym. Kolejnym atutem jest możliwość pracy nad dużymi projektami. Dane mogą być wymieniane przez HTTP(S), FTP, rsync, SSH.

Systemy kontroli wersji

Mercurial oraz Bazaar to rozproszone systemy kontroli wersji, stworzone w Pythonie. Pierwszy z nich jest multiplatformowy, jednak nie posiada wielkich różnic w porównaniu z Gitem. Przewagą jest dobre funkcjonowanie na win32 oraz integracja z edytorem Netbeans 6.  Pomoc w systemie jest łatwiejsza do odczytania niż w przypadku systemu Git. Ma wbudowany serwer hg serve, który pozwala na wygodny dostęp przez www oraz nie wymaga wpisywania całych komend, system odgaduje je intuicyjnie.

Bazaar może pracować jako centralny, jak i rozproszony system kontroli wersji. Został zaprojektowany przez Martina Poola. Niestety system przestano rozwijać.

 

Żeby wybrać odpowiedni system kontroli wersji, należy dobrać jego funkcjonalność do typu projektu oraz indywidualnych potrzeb jego autorów. Warto wypróbować różne rozwiązania. Dzięki temu możliwa jest ocena i wybór najlepszego zabezpieczenia danych.

Sprawdź inne artykuły – Niezbędnik biznesmena i jak zamawiać stronę WWW.

Kampania Adwords – reklama na urządzenia mobilne

Reklama na urządzenia mobilne – Jaki typ wybrać?

W związku z rozwojem technologii, co raz więcej odbiorców korzysta z Internetu w podróży. W obiegu są narzędzia typu smartfony, tablety i wiele innych. Google nie zapomina także o tej grupie użytkowników. W poprzednim artykule Reklama na urządzeniach mobilnych opisaliśmy marketing internetowy dla działu mobile. Możecie w nim znaleźć wiele informacji, dlaczego warto skorzystać z tego typu reklam. Dziś opowiemy, jakie są możliwości w przygotowaniu kampanii Adwords na urządzenia mobilne.

Tworzenie kampanii wygląda bardzo podobnie, jak w przypadku tych kierowanych na PC. Wybieramy sieć, gdzie mają wyświetlać się reklamy, np. sieć reklamowa z rozszerzeniem na partnerów Google. Tutaj nie ma większej filozofii. To, co jest dla nas ważne – gdzie będą wyświetlane reklamy i jakie są typy reklamy mobilnej w Adwords.  Na początku wymienimy wszystkie możliwości po czym dokładnie się im przyjrzymy.

reklama na urządzenia mobilne

Reklamy mobilne mogą być wyświetlane:

  • na urządzeniach mobilnych, które są wyposażone w przeglądarkę z pełną funkcjonalnością (np. tablety, smartfony),
  • w aplikacjach przeznaczonych na urządzenia mobilne,
  • na urządzeniach, które mają opcję nawiązywania połączeń telefonicznych.

Typy reklam mobilnych:

  • Reklamy tekstowe,
  • Reklamy graficzne,
  • Reklamy aplikacji mobilnych,
  • Reklamy „tylko połączenie”.

reklama na urządzenia mobilne

Reklamy tekstowe

Reklamy tekstowe na urządzeniach mobilnych wyposażonych w przeglądarkę z pełną funkcjonalnością, to nic innego jak zwykła reklama tekstowa. Jest to format znany od bardzo dawna. Niezmienne pozostają ograniczenia liczby znaków w treści reklamy. Na co należy zwrócić uwagę, to podczas tworzenia, trzeba zaznaczyć urządzenia mobilne.  Dzięki temu zobaczymy, jak będzie wyglądać reklama na smartfonie. Jak zawsze możemy dodać rozszerzenia reklam (linki, numer kontaktowy, wskazówki lokalizacji, itp.) wszystkie te informacje zostaną pokazane odbiorcy.  Nie wolno zapominać, że mamy ograniczoną widoczność, bo rozmiary wyświetlaczy są mniejsze. Dlatego w tym wypadku, należy dokładnie przeanalizować, które informacje mogą spowodować konwersje.

Reklamy „tylko połączenie”

Są wyświetlane na urządzeniach, z których mogą być wykonywane połączenia telefoniczne.  Ich celem jest zachęcenie odbiorców do dzwonienia. Po kliknięciu w ten typ reklamy odbiorca klient zadzwoni bez odwiedzania witryny.  Jeśli zależy Ci na odwiedzinach na stronie skorzystaj z opcji rozszerzenia numerów telefonów. Dzięki nim użytkownicy będą mieli możliwość bezpośredniego kontaktu lub odwiedzenia strony.  Żeby stworzyć reklamę należy podać:

  • Nazwę firmy,
  • Numer telefonu,
  • Dwa wiersze opisu,
  • Adres URL, który zostanie wyświetlony w reklamie,
  • Adres URL Twojej witryny (pozwala na weryfikację numeru telefonu).

Ten typ reklamy jest idealny dla przedsiębiorstw, które są w stanie pozyskać klientów dzięki rozmowie telefonicznej. Do tej grupy zaliczają się np. firmy przewozowe. Reklamy „tylko połączenie” mogą być wyświetlane w sieci wyszukiwania i sieci wyszukiwania z rozszerzeniem na sieć reklamową.

Reklamy graficzne

Wyglądają bardzo podobnie do tych, które znamy z reklam tworzonych na komputery stacjonarne. Mogą prowadzić użytkowników do strony mobilnej lub aplikacji. Są to reklamy wyświetlane w sieci reklamowej. Rozmiary reklam graficznych powinny być dostosowane do rozmiarów wyświetlaczy urządzeń mobilnych. Reklamy wyświetlane w aplikacjach i witrynach mobilnych powinny mieć rozmiar 320×50. Banery reklamowe są wyświetlane na górze strony lub ekranu aplikacji.  Można też stworzyć pełnoekranowe reklamy graficzne. W tym przypadku wymagane rozmiary dla telefonów komórkowych to 300 x 250, 320 x 480 i 480 x 320, dla tabletów 1024 x 768 i 768 x 1024.

Reklamy w aplikacjach

Reklamy w aplikacjach przeznaczonych na urządzenia mobilne są tworzone w wielu celach. Niektóre z nich to zwiększenie ilości pobrań oraz instalacji aplikacji lub zwiększenie zaangażowania jej dotychczasowych użytkowników. Pierwszy typ pozwala na wyświetlanie reklam, które posiadają przycisk „instaluj”.  Druga opcja idealnie działa, jeśli stworzone zostały jakieś udoskonalenia. Jest to idealny sposób na odnowienie lub rozszerzenie bazy dotychczasowych użytkowników aplikacji (mogą być wyświetlane w sieci wyszukiwania i w sieci reklamowej). Reklamy aplikacji mobilnych mogą się pojawiać w

  • sieci wyszukiwania (wyświetlanie reklam w wyszukiwarce Google na urządzenia mobilne, wyszukiwarce Google Play, aplikacji Google),
  • sieci reklamowej (sieć witryn partnerów Google dla urządzeń mobilnych i aplikacje mobilne)
  • You Tube (You Tube na urządzenia mobilne).

Reklama na urządzeniach mobilnych - tworzenie

Przygotowanie kampanii na urządzenia mobilne nie stanowi problemów. Każdy, kto wcześniej tworzył kampanię w Adwords bez problemu sobie poradzi z przygotowaniem nowej, skierowanej do użytkowników mobilnych. Podstawową sprawą, na jaką należy zwrócić uwagę to przystosowanie strony internetowej do wyświetlania na urządzeniach mobilnych. Jak wspomniane zostało w poprzednim artykule, liczba użytkowników mobilnych ciągle rośnie. Dlatego mobilna wersja witryny każdej dobrej firmy jest niezbędna.

Responsywność strony WWW

Jest kilka opcji stworzenia responsywnej strony internetowej. Jedną z nich jest utworzenie nowego arkusza stylów, który będzie dopasowanie witryny do odpowiednich rozmiarów urządzeń mobilnych. Tutaj warto nie zapominać, że rozmiary wyświetlaczy są bardzo różne. Kolejnym problemem jest widok w pionie i poziomie. O tym drugim wciąż wielu nie pamięta… Ważne jest, by po utworzeniu strony została ona przetestowana. W sieci można znaleźć dużo darmowych narzędzi, które pomogą sprawdzić responsywność strony. Dodatkową pomocą jest walidacja, która wykryje ewentualne błędy. Technicznych aspektów można mnożyć wiele. Zajmijmy się wygodą użytkowania strony.

strona responsywna 1

Wygląd witryny, czy na urządzeniu mobilnym, czy PC musi być przejrzysty. Bardzo ważne jest, żeby odbiorca szybko i łatwo znalazł informacje, jakiej szuka. Dlatego menu na stronie mobilnej powinno być proste i estetyczne. Jego rozmiar winien pozwalać na łatwe przechodzenie po kartach strony. Następna sprawa, o której wciąż za mało ludzi pamięta – numer telefonu. Jest to jedna z najważniejszych kwestii – numer  telefonu w wersji mobilnej strony internetowej musi być „klikalny”. Oznacza to, że jak użytkownik wejdzie na stronę kontakt lub znajdzie numer w stopce musi mieć możliwość wykonania połączenia. Liczy się tu i teraz, 90% odbiorców nie będzie zapisywać numeru, żeby później zadzwonić. Jednak zanim znajdziemy się na stronie, ona musi się wczytać. To jest najistotniejsza rzecz. Jeśli użytkownik będzie musiał czekać odejdzie. Czas jest bardzo ważny, dlatego w responsywnej wersji strony nie może być dużych grafik, sliderów, filmików czy muzyki powitalnej  w jednym. Na szczęście Google pędzi z pomocą i tworzy darmowe narzędzie PageSpeed Insights. Polecamy je bardzo gorąco, bo może okazać się niezbędne.

Oczywiście jest to tylko część informacji, które chcielibyśmy Wam przekazać, ale co za dużo to nie zdrowo. Dlatego już wkrótce będzie kolejna dawka wiedzy na ciekawe tematy dotyczące zasobów, jakie oferuje nam Internet.

Słowa kluczowe – skuteczny marketing w sieci

Analiza i szukanie słów kluczowych jest podstawą marketingu w sieci. Zaplanowanie tego zadania to pierwsza rzecz, na którą należy zwrócić uwagę nim podejmie się kolejne kroki.

Wiele osób odpowiedzialnych za marketing w sieci podejmuje dość powierzchowne działania. Często wybierają tylko ogólne słowa kluczowe z wysoką konkurencyjnością. Ten sposób jest niewystarczający. Przez to często wskaźnik ROI (zwrot z inwestycji) jest niski. W rezultacie, część pieniędzy jest marnowana.

Można to zrobić lepiej!

Nie warto pracować tylko z Google Keyword Planner. Oczywiście jest to bardzo dobre narzędzie, jednak nie daje całkowitego obrazu. Trzeba spojrzeć na inne opcje, dzięki którym możemy znaleźć interesujące słowa kluczowe. To da nam wyższy ROI (zwrot z inwestycji) i zadowolenie klienta.
Dobrym programem do badania konkurencji jest SEMrush. Dzięki niemu możemy sprawdzić, historię reklam konkurencji. Dodatkowo poznamy ich pozycję oraz przewidywany CPC.

Google Keyword Planner z ciekawszej strony

Każda osoba zajmująca się wyszukiwaniem słów kluczowych używa Google Keyword Planner. To oznacza, że wszyscy otrzymują te same propozycje fraz. Dane zawarte w tym narzędziu są cenne i zdecydowanie powinno się go używać. Jednak nie pozwala ono na prześledzenie działań konkurencji.

Jednym z bardziej interesujących pomysłów jest wyszukiwanie fraz dla danego linku:
Google-KeywordPlanner-url

Od tego można rozpocząć analizę.
Dodatkowo, warto poszukać nowych rozwiązań. Sprawdzanie innych narzędzi darmowych lub płatnych jest przydatne. Tak naprawdę cały czas trzeba śledzić oryginalne programy, żeby stworzyć listę potencjalnych słów kluczowych. Warto też zajrzeć na fora, gdzie znajdują się informacje, jakie rozwiązanie może okazać się pomocne.

Zebranie danych i ocena konkurencji

Gdy już mamy gotową wyjściowy plik, trzeba podzielić dane według pewnych kryteriów. Na przykład:

• Średniej liczby wyszukiwań w ciągu miesiąca (lokalnie lub globalnie)
• Jakie są potencjalne koszty?(jeśli nie ma innych sprawdzonych wyznaczników, CPC jest miarodajną oceną)
• Jak duża jest konkurencja dla danej frazy (tu przydają się narzędzia do analizy konkurencji)
Bardzo ciekawym narzędziem jest Term Explorer, gdzie możemy budować projekty z analizą słów kluczowych i URLi. (Istnieje możliwość pobrania plików w formacie CSV.)

Priorytet słów kluczowych

Teraz pogrupujmy frazy:

  • Duża ilość wyszukiwań, wysoka konkurencyjność, wysoki zwrot – grupa bardzo trudnych fraz, na które osiągnięcie wysokiej pozycji zajmie dużo czasu.
  • Niska ilość wyszukiwań, niska konkurencyjność i potencjalnie niski zwrot – łatwo jest się wbić na pierwsze pozycje, ale ich zdobycie nie zapewnia wiele. Są idealne do wspierania ważniejszych celów, jak z wcześniejszej grupy. Dzięki nim można osiągnąć szybkie zwycięstwa.
  • Średnia liczba wyszukiwań, średnia konkurencyjność, średni lub mały zwrot. Optymalna grupa, dzięki której można łatwo zdobyć topowe miejsca i osiągnąć dodatni bilans, zarówno w ruchu, jak i dochodach. Są to frazy, które powinny znaleźć się na promowanej stronie.

Jednym ze sposobów wzrostu pozycji jest dodawanie nowych słów kluczowych w treści strony. Dzięki temu, zyskuje się widoczność na nowe frazy.
Trzeba też pamiętać, że wartość słów kluczowych jest zmienna. Należy ją sprawdzać dość często. Warto zwracać uwagę na nowinki i trendy w branży, a także szukać nowych możliwości badania rynku.

Podsumowując, szukaj nowych sposobów. Zawsze jest coś do odkrycia. Szukanie słów kluczowych jest bardzo ważne. Dobrze wykonana analiza może przynieść zyski. Dlatego warto i trzeba szukać niekonwencjonalnych rozwiązań.
Do tego Was zachęcam!

Agile marketing – przyszłość czy utopia?

Agile marketing wywołuje mieszane uczucia. Z jednej strony: odejście od typowego marketingowego planowania każdego ruchu z poważnym wyprzedzeniem na rzecz dynamicznych zmian, dostosowywania się do rynku i potrzeb klientów w czasie rzeczywistym i bezustannej ewolucji wydają się koniecznością dziejową i jedynym słusznym wyjściem. Z drugiej strony skoncentrowanie się na „tu i teraz”, ciągłą uważność i sprzężenie akcji i reakcji wydają się niewyobrażalnym wyzwaniem i bezustannym potencjałem wpadki.

Agile marketing – konieczny kierunek zmian czy utopijna wizja niemożliwa do realizacji? Zacznijmy od zdefiniowania podstawowego zagadnienia. Agile marketing to tzw. marketing zwinny. Przede wszystkim zakłada on odrzucenie sztywnych zasad rządzącymi dużymi projektami na rzecz podziału zadań na małe projekty i możliwości ich ciągłej modyfikacji w trakcie ich trwania. Najważniejsze dla zwolenników tej idei jest ciągłe testowanie rozwiązań, przeprowadzanie prostych, mało kosztownych badań, których szybkie wyniki (np. informacja zwrotna od klientów) mogą być od razu uwzględnione w prowadzonym aktualnie projekcie i natychmiast  wpłynąć na jego modyfikację. Dzięki temu klient poniekąd kształtuje produkt odpowiadający jego potrzebom, gwarantując firmie sprzedaż. Podejście agile umożliwia działanie przedsiębiorstwa  w stale zmieniającym się środowisku, bezustanną interakcję z klientem i ciągłe unowocześnianie i ulepszanie oferty.

Agile to nie tylko marketing – przede wszystkim jest to pojęcie związane  programowaniem. Metody zwinne maja zastosowanie w marketingu, ponieważ współczesny marketing ma wiele wspólnego z rozwojem oprogramowania, projektami informatycznymi, przedsięwzięciami biznesowymi.

Ludzie są najważniejsi – priorytety agile marketingu

Strategia agile bazuje na czterech postulatach, które wskazują priorytety:

Ludzie i interakcje ponad procesami i narzędziami.

– Działające oprogramowanie ponad obszerną dokumentacją.

– Współpraca z klientem ponad formalnymi ustaleniami.

Reagowanie na zmiany ponad podążaniem za planem.

Takie wytyczne, czyli dialog z klientem, gotowość na zmiany, działanie, a  nie planowanie, w teorii układają się w schemat idealnego marketingu. Jak to jednak musi być zorganizowane, by za piękną teorią szło działanie, a przede wszystkim efekty?

Warto słuchać klientów

Podstawą agile marketingu jest informacja, której najlepszym źródłem są klienci, dlatego pierwszą zasadą tego systemu są: Niezwykłe doświadczenia klientów. Podstawowym celem jest jak najlepsze spełnianie oczekiwań klientów we wszystkiego rodzaju  interakcjach biznesowych, zarówno osobiście, jak i przez telefon, urządzenia mobilne oraz bezpośrednio poprzez swoje produkty i usługi.  Źródłem przewagi konkurencyjnej jest umiejętność zatrzymywania stałych klientów, dzięki budowaniu odpowiednich relacji z nimi. To z kolei jest możliwe poprzez indywidualne podejście do każdego z nich, na podstawie zdobytej wiedzy na ich temat, obserwacji  ich zachowania, preferencji.

Zmiany – rynek to lubi!

Drugim słowem-kluczem jest Elastyczność, czyli gotowość podejmowania natychmiastowych działań i wprowadzania zmian, jeśli tylko badanie opinii klientów wskaże, że jest to konieczne. Przed rozpoczęciem projektu oczywiście tworzone są  plany, ale dopuszcza się wprowadzenie w nich zmian w wyniku zmieniających się warunków otoczenia. Kluczowa jest elastyczność,  umiejętność szybkiej reakcji na  sugestie otoczenia i  obracanie ich na korzyść. Przykładem obrazującym tak pojmowaną elastyczność może być skuteczne radzenie sobie z kryzysami w mediach społecznościowych, umiejętność wykorzystania niespodziewanej sytuacji biznesowej itp.

Kontaktuj się

Ogólnikowe pojęcie „klienci” z pierwszego punktu znajduje rozwinięcie w trzecim: Jednostki i interakcje. Ważny jest pojedynczy człowiek, rozmowa z nim i wnioski z niej płynące. Narzędzia są środkiem, a nie celem: powinny umożliwiać i ułatwiać interakcje z ludźmi. Dotyczy to też współpracy między członkami różnych zespołów w firmie. Komunikacja to podstawa. Niezmiernie istotne jest zachowanie odpowiedniej równowagi pomiędzy technologią, a bezpośrednimi interakcjami w erze tak szybko rozwijających się technologii, mających zastosowanie również w marketingu.

Testy – byle nie na zwierzętach!

Testowanie jako punkt czwarty nie zaskakuje – w końcu testy są podstawowym źródłem wiedzy na temat ostrzegania produktów przez klientów. Agile ma jednak inne niż dotychczasowe techniki podejście do testów: zamiast wielkich, przekrojowych badań konsumenckich, sugeruje szybkie, krótkie i tanie testy, które można robić często, bez konieczności poważnej obróbki i analizy, z jasnym przekazem. Obecnie stosowane są mierniki, pozwalające zmierzyć efektywność działań marketingowych, co jednocześnie stwarza możliwość nieustannego ulepszania aktualnych rozwiązań, dając odpowiedź w jakim kierunku wprowadzać zmiany. Eksploracja danych służy pobudzeniu tak ważnej w marketingu kreatywności, poprzez odkrywanie ciekawych wzorców zachowań konsumentów.

Analogicznie wygląda sprawa Eksperymentów. Agile marketing zakłada, że ważniejsze jest przeprowadzanie jak największej liczby prostych eksperymentów, wypróbowanie jak największej ilości rożnych pomysłów, z jak największą szybkością. Dzięki temu, wybrane zostaną pomysły, które zakończyły się sukcesem, a odrzucone pozostałe. Przez to zwiększa się liczba pomysłów, które mogą być realizowane na większą skalę, ponieważ ich powodzenie jest poparte wcześniejszym dowodem i wiąże się z mniejszym ryzykiem.

Badanie opinii zawsze i wszędzie

Kolejny krok – znowu klienci, tym razem w odsłonie: Ciągła współpraca z klientem. To nie przypadek, to nie chaos w uszeregowaniu omawianych czynników i etapów – klienci powracają jak refren na każdym etapie strategii agile marketingu nie bez powodu. Najlepszym rozwiązaniem jest bezpośrednia współpraca z klientem, iteracyjnie na każdym etapie tworzenia produktu: projektu, prototypu, jego implementacji. Uzyskiwanie opinii klienta odbywa się zarówno pośrednio poprzez eksplorację danych i testowanie, jak i bezpośrednio za pomocą kanałów feedback i mediów społecznościowych.  Dzięki temu klient w dużej mierze ma wpływ na tworzone rozwiązania, zyskuje więc lepszy produkt, ale też poczucie ważności, co pomaga budować przywiązanie do marki.

Czynnik ostatni, ale istotny: transparentność jest kluczową wartością w podejściu agile. Poprawia ona efektywność pracy oraz jakość produktów. Polega na otwartej komunikacji na każdym etapie pomiędzy wszystkimi uczestnikami procesu: zarówno zespołami, pracownikami, jak i klientami.
Agile wręcz zachęca odbiorców produktu do aktywnego udziału w procesie jego tworzenia, ponieważ wpływa to pozytywnie na efekt prac.

Transparentność na poziomie pracowniczym to wątek wart rozwinięcia. Możliwa jest ona dzięki specyficznej organizacji pracy, pozwalającej na to, że wszystkie zadania, problemy rozwiązywane przez pracowników oraz efekty ich pracy są niejako „widoczne” dla wszystkich uczestników projektu.

Nowy, lepszy tryb pracy

Sprzyjać mają temu specjalne etapy i tryby pracy. Podstawowym mechanizmem w systemach agile jest sprint. Przed sprintem, organizowana jest sesja, na której ustalane są główne cele sprintu i początkowe przypisanie zadań członkom zespołu. Sprint, trwający maksymalnie do 1 miesiąca, jest kierowany procesem zwanym SCRUM . Kluczowym elementem scrum’u, są codzienne spotkania, trwające nie dłużej niż 15 minut. Każda osoba zaangażowana w projekt, tworzy raport, dotyczący trzech kwestii:co zostało wykonane wczoraj, jaki jest plan na dzisiaj i jakie ewentualne przeszkody jego wykonania. Zadaniem prowadzącego spotkanie scrum jest wyeliminowanie wszelkich przeszkód i aktualizacja wykresu dotyczącego tego, jaki procent planowanej pracy został już wykonany. Na zakończenie każdego przebiegu (sprintu) odbywają się dwa spotkania- sprint review oraz sprint retrospective. Na pierwszym z nich zdawane są relacje, z tego co zostało wykonane w danej iteracji, prezentowane są efekty działań, czego ewentualnie nie udało się wykonać. Drugie spotkanie  polega na zrelacjonowaniu jak przebiegał sprint – co poszło dobrze, a co mogłoby ulec poprawie.

Jeśli zespół, to Współpraca pracowników, ale też poszczególnych zespołów i działów. W ciągu ostatnich lat, marketing podzielił się na wiele niezależnie pracujących zespołów, wśród których można wyróżnić grupy zajmujące się: marketingiem mediów społecznościowych, stron internetowych, email-marketingiem itd. Agile marketing dostrzega konieczność koordynacji pracy wszystkich zespołów i ciągłej współpracy pomiędzy nimi. Dla wielu organizacji przyjęcie tych zasad będzie oznaczać nie tylko zmiany w kulturze pracy, ale również w realizacji konkretnych technik zarządzania.

System ten sprzyja Iteracjom. Na czym to polega? Wykorzystując dane, testy i liczne małe badania, istotne jest szybkie tworzenie koncepcji marketingowych i implementowanie je w realnym środowisku. Można je w sposób iteracyjny, ulepszać na podstawie informacji zwrotnych z zewnątrz.

Wykorzystywanie tych danych jest na tyle istotne, że zasłużyło na osobny punkt: Pętla sprzężeń zwrotnych. Każdy projekt, w jaki zaangażowana jest firma, powinien mieć pewne mierniki: ilościowe lub jakościowe, za pomocą których można oceniać iteracyjnie, czy zaszła poprawa. Im częstsze są wspomniane kontrole, tym lepiej dla procesu.

Agile w praktyce

Pojęcie Agile obejmuje  wiele metodyk zarządzania projektami i dostarczania produktów. W pierwszej grupie znajdują się te, które są nastawione w większym stopniu na dostarczanie produktów, a mianowicie:

  • Extreme programming- dostarcza techniki wytwarzania oprogramowania. Pojęcie to obejmuje bardzo małe ilości zarządzania, dlatego trzeba łączyć je z różnymi metodykami zarządzania.
  • Lean- pojęcie to skupia się na jak największej eliminacji strat. Lean może być stosowany w momencie wytwarzania oraz organizacji.
  • Scrum- zapewnia znakomite podejście oparte na zespole. Skupia się na ustaleniu priorytetów pracy.  Jego stosowanie wymaga dodatkowego podejścia związanego z zarządzaniem projektem. Często łączony jest z XP (Scrum zapewnia zarządzanie zespołem, natomiast XP- techniki wytwarzania).

Druga grupa obejmuje metodyki bardziej nastawione na zarządzanie projektami:

  • DSDM (Dynamic Systems Development Method)- jest to najstarsza metoda agile (powstała w  1995roku).  Wyróżnia ją to, że jako jedyna w pełni opisuje zarządzanie projektami. Metoda ta stale się rozwija, jej najnowszą wersją jest DSDM Atern.
  • Agile Project Management- projekt rozpoczyna się od stworzenia planu wysokiego poziomu, który jest oparty o zarys wymagań i rozwiązanie widziane “z lotu ptaka”. Realizowany jest on w sposób iteracyjny i przyrostowy, w taki sposób, że każdy następny produkt jest budowany w oparciu o produkt wytworzony w poprzedniej iteracji.  Szczegółowy plan projektu nie jest tworzony przez kierownika, lecz przez zespół projektowy.

Agile marketing to rewolucja, na którą wiele marek jest już gotowych, a nawet wdraża. Dobrze ilustruje to przykład Coca-Coli, która w 2011 roku ogłosiła, że będą zmieniać ich marketingu z „kreatywnej doskonałości” do „doskonałej zawartości” w ramach nowej strategii. Celem było wprowadzenie innowacji 70/20/10:

• 70% niskiego ryzyka, nastawionego na teraźniejszy produkt

• 20% innowacyjnych „nowych” rozwiązań w oparciu o te już sprawdzone

• 10% nowych, niesprawdzonych,  które w przyszłości będą należeć do 70% lub 20%

To podejście obrazuje otwartość na zmiany, gotowość sięgnięcia po rozwiązania niestandardowe.

Prawdziwym polem bitwy agile marketingu jest interent: content marketing i social media ogólnie, aplikacje, reklamy PPC i pozycjonowanie stron – to wszystko działania bieżące i interaktywne, angażujące odbiorców.

Metoda agile pozwala na realizację złożonych projektów przy minimalizacji ryzyka nieporozumienia wewnątrz zespołu wytwórczego, maksymalizując jednocześnie efekt końcowy, na który kumulują się poszczególne etapy projektu. Stąd właśnie przedsięwzięcia wykonywane przy wykorzystaniu agile stają się bliższe celom stawianym przez Klientów, ale wymagają również poświęcenia czasu na wspólną weryfikację wykonanych efektów, wzajemne zrozumienie i przekazywanie uwag. To spotkanie idei i technologii, co jest zaletą i wadą tego działania, bo na pytanie „kto to ogarnie?”, często brakuje odpowiedzi. Spokojnie – obserwujemy:).

Twittery i inne bajery – przegląd newsów z internetów

Sektor mobilny ma coraz większe znacznie. Dla SEOwców może to być pewien problem, a na pewno zagadnienie ważne, determinujące obecnie wdrażane i planowane strategie, o czym była już mowa na blogu. (Uwaga, nowy algorytm śmiga już oficjalnie od 21 kwietnia!). Dla podglądaczy internetów jest to ciekawe zjawisko, którego skutki zaobserwować można nie tylko w wyszukiwarkach, ale też w danych reklamowych.

Przykład pierwszy z brzegu, chociaż w tym wypadku brzeg jest brzegiem oceanu po drugiej stronie świata: według szacunków Interactive Advertising Bureau w ubiegłym roku w USA nakłady na reklamy internetowe osiągnęły kwotę 49,5 mld dol., co oznacza wzrost o 16 proc. w skali roku. Aż 25 proc. tych pieniędzy zasiliły działania reklamowe prowadzone mobilnie. Poważniejszy zastrzyk finansowy niż kiedykolwiek odnotowało video i social media. I to jest, proszę Państwa, obraz społeczeństwa. W końcu marketerzy inwestują w to, co ma branie. Jeśli chcecie się reklamować, to najlepiej pomyśleć o nośnym społecznościowo video, które dobrze się będzie odtwarzało na smartfonie.

No właśnie – czy na pewno smartfonie? I jakim smartfonie? Tę sprawę zbadał niedawno Gemius. Niemal co trzecia (28 proc.) odsłona w sieci w Polsce pochodzi ze smartfonów i tabletów marki Apple (dane z marca 2015 r.). To o 1/5 więcej niż rok wcześniej w analogicznym okresie, gdy ruch w sieci z urządzeń tego producenta stanowił ponad 23 proc. wszystkich odsłon mobilnych. Co więcej, widać wyraźnie, że w kraju nad Wisłą ruch mobilny z iPhone’a wzrósł rok do roku blisko dwukrotnie (z 9 proc. w marcu 2014 r. do 17 proc. w marcu 2015 r.).

Polscy fani produktów z jabłkiem to jednak grupa znikoma w porównaniu ze swoimi odpowiednikami w Rosji – tam aż 53 proc. odsłon generują produkty Apple. Analitycy tłumaczą to typowo rosyjskim zapotrzebowaniem na gadżety będące wyznacznikiem statusu i prestiżu. Wystarczy jednak spojrzeć na Danię – 80 proc. odsłon pochodzi z iSprzętu, co więcej takie są dane z tego roku, ale tak samo wyglądało to w roku ubiegłym.

Skoro o Apple mowa – wielu generuje odsłony za pomocą obrandowanym jabłkiem sprzętów, wielu jednak nie może – choć bardzo by chciało. Obiektem najbardziej pożądanym jest obecnie Apple Watch. Niektórym szkoda na niego kasy, inni nie zawahali się przed inwestycją, ale jeszcze czekają na realizację zamówienia. Jak żyć bez Apple Watch? Teraz już bez problemu, ponieważ Sketchfab oferuje narzędzie, dzięki któremu można Apple Watch mieć, nawet jeśli się go nie ma. Oczywiście to pozorne posiadanie możliwe jest tylko w internecie, na przeróżnych selfies podbijających media społecznościowe, ale przecież wszyscy wiemy, że to tam dzieje się życie.

Dzięki Sketchfab Twoje selfie może wyglądać tak:

watch-selfie

 

Co ciekawe, wszystko dzieje się w 3D, zegarek można dopasować, a nawet zmienić mu rozmiar, co więcej, to nie tylko selfie z AppleWatch, to jest selfie „zrobione” Apple Watch! Niby nic, a czuje się człowiek królem życia.

Zmieniając temat: bez względu na to, czy masz AppleWatch, apple-cokolwiek-innego czy nie masz, jednego nie zobaczysz w sieci z pewnością: twitterowej aktywności władz Twittera. Najciemniej pod latarnią? Dick Costolo, CEO portalu, publikuje średnio trzy wpisy dziennie, jednak 7 na 11 dyrektorów nie robi tego wcale. Pozostali próbują chyba wyrównać tę zaskakującą statystykę i na przykład Katie Jacobs Stanton, wiceprezes ds. globalnych mediów, wrzuca średnio 9 ćwierków dziennie. Sprawie przyjrzał się Si Dawson, pochodzący z Nowej Zelandii deweloper stron internetowych. Poza twardymi danymi Dawson dostarczył też kilka propozycji interpretacji, zarówno pozytywnej (nie mają nic ciekawego do przekazania, więc nie przekazują, ale angażują się biernie, czyli czytają), jak i negatywnych (nie znają produktu, który tworzą). Twitter sprawy nie skomentował.

Jeśli prawdą jest, że to brak natchnienia stoi za twórczą niemocą władz Twittera, mogą oni skorzystać ze wsparcia Google – AdSense ma nową funkcję, przydatną wydawcom treści internetowej. Dzięki temu narzędziu mogą oni teraz dostawać wskazówki dotyczące promocji treści, czyli rekomendacje dotyczące tego, co warto promować, a co nie, czyli co jest dla odbiorców bardziej „hot”, a co można było sobie darować – Matched content. W praktyce będzie to wyglądało tak, że Google będzie sugerował, które treści należy podłączyć pod dane teksty. W efekcie odbiorca zapoznawszy się z treścią numer 1, będzie miał podsunięta odpowiednią treść 2, a potem kolejne, tak, by zechciał zamieszkać na naszej stronie na zawsze i czytać w nieskończoność.

Matched content to nie jedyna nowinka od Google. Pewną ciekawostką jest fakt, że dzięki Google Street View można zwiedzać kolejne polskie atrakcje turystyczne, m.in. Wilczy Szaniec znajdujący się w okolicach Kętrzyna, łódzkie  zoo i warszawskie Łazienki.  Tę ostatnią wiadomość można jednak swobodnie zlekceważyć na najbliższe kilka miesięcy – polecamy zwiedzanie tych okolic raczej osobiście niż za pomocą Google Street View. Odsłony z urządzeń mobilnych same się nie zrobią:).

 

Jak zostać badaczem SEO w weekend – dobra analiza SEO

Oczywiście: znawcą SEO nikt nie zostanie w weekend, a już na pewno na poziom eksperta nie wskakuje się za pomocą przeczytania jego posta, nawet posta na tym blogu. Jednym tekstem i w jeden weekend można jednak zrobić krok w stronę lepszego zrozumienia SEO. Jeden tekst może być źródłem patentu na skuteczne podejście do sprawy. Mam nadzieję, że ten tekst będzie na to szansą.

Badanie, analizowanie i zgłębianie SEO zaczyna się w momencie, kiedy przestajemy przyjmować na wiarę wszystko, co nam pokazuje Google. Prawdziwe SEO rodzi się w chwili, kiedy patrzymy na statystki i zastanawiamy się, skąd wzięły się dane, które są nam prezentowane, jakie zjawiska miały na nie wpływ i jak my możemy je kształtować. Możemy zakończyć działanie na etapie, kiedy Google informuje, że wprowadził nowy algorytm i że jest 200 czynników, od których zależy nasze pozycjonowanie. Możemy też jednak próbować dowiedzieć się, co to za czynniki są i jak możemy je wykorzystać lub przechytrzyć. Jak każda nauka, analiza  SEO wymaga pytań, wątpliwości i dociekań. Ciekawość dziecka, żądza wiedzy i otwartość na wyzwania to podstawowe cechy specjalisty SEO.

To jest ciekawy paradoks SEO: z jednej strony wymaga od nas stawiania pytań, z drugiej zaś – nie gwarantuje żadnych pewnych odpowiedzi. Pozycjonowanie i walka z Google to ciągłe bazowanie na domysłach. Niektórzy domyślają się trafniej niż inni, co winduje ich na pozycję liderów. Najskuteczniejszym wstępem udanego szacowania reguł Google jest analiza statystyk, przede wszystkim zaś szukanie między nimi korelacji. Konieczne jest spojrzenie panoramiczne, wieloaspektowe, porównywanie i szukanie zależności. Tak pracują najlepsi.

Istnieje wiele popularnych teorii, którym można zawierzyć lub nie – dotyczy to na przykład wpływu popularności w social media na pozycjonowanie w wyszukiwarce. Dość częste jest myślenie, że wpływ ten jest bardzo poważny i bardzo pozytywny. Badacz SEO nie idzie jednak tropem takich ogólnych przekonań, tylko gromadzi dane i porównuje je, tak długo, aż uda mu się dostrzec, jak w rzeczywistości układa się współpraca między mediami społecznościowymi i Google. Samodzielne wysnucie wniosków i budowanie strategii na podstawie analizy SEO daje większe szanse na sukces niż spokojne dreptanie utartą ścieżką stereotypów.

Skuteczna analiza SEO – jak zacząć?

SEO to działanie na danych, które należy gromadzić i analizować. Dla wielu pierwszym skojarzeniem ze słowem „analiza” jest Excel i jest to bardzo dobre skojarzenie. Microsoft Excel to narzędzie jednocześnie proste i szalenie skomplikowane – wszystko zależy od tego, na jak zaawansowanym poziomie z niego korzystamy. Oczywistym jest, że im bardziej zaawansowany poziom, tym większy potencjał, dlatego warto zgłębić istotę i funkcjonalność arkuszy kalkulacyjnych. W sieci, ale też w realu, znaleźć można wiele kursów i podręczników, które uczą, jak z Excela wyciągnąć to, co najlepsze. Uwierzcie, pomaga uporządkować nawet największe ilości najbardziej różnorodnych danych. Warto pamiętać, że Excel to pomysł na porządkowanie danych, przydatne są jednak też narzędzia, które owe dane zbierają.

Kolejnym krokiem jest zrozumienie istoty tego, na czym działasz, czyli metryki i tego, czym w rzeczywistości są one dla strony.  Najlepszym sposobem na zbadanie tej sprawy jest przebrnięcie przez wiele stron i wiele metryk, tak, by ich idea i wartość stały się jasne.

Kiedy już wiesz, na czym pracujesz i jakie masz do tego narzędzia, możesz postawić pytania. Pytania są po to, by wiedzieć, które obszary są interesujące. Pytania są też po to, by przyniosły odpowiedzi, na których będzie można zbudować strategię działania. Pytanie nie może być ogólne, czyli nie pytamy (choć pytamy:)), jak mieć dobrą pozycję w wyszukiwarce. Znacznie lepszym pytaniem jest: „Jaki wpływ na pozycjonowanie ma posiadanie przez stronę mobilnej wersji?”.

Takie pytanie to punkt zaczepienia – od tej pory wiemy już, czego szukamy, jakie dane są nam potrzebne. Gromadzimy wszelkie możliwe informacje, z naciskiem na przeszukiwanie wyników wyszukiwania, a nie publikacji na branżowych blogach. Zbieramy materiał dowodowy, porównujemy, zestawiamy i już mamy pierwsze własne spostrzeżenia.

Następnym krokiem jest dobudowywanie pytań, na przykład o powiązanie mediów społecznościowych i pozycjonowania. Takie pytanie generuje kolejne przeszukania, porównania i zestawienia, na końcu dając nam wynik, który jest istotny nie tylko sam w sobie, ale jest już czynnikiem, którego wpływ na pozycjonowanie możemy porównać z innymi potencjalnymi czynnikami.

Świetną przykładową analizę w odniesieniu do swoich narzędzie przeprowadził SEMrush. Zbadane zostały powiązania między pozycjonowaniem stron a aktywnością wokół nich w mediach społecznościowych. Hipoteza badawcza brzmiała: „share’owanie poprawia statystyki”. Czy na pewno?

Metryki

Po użyciu kilku metryk (które przykładowo pokazuje estymację ruchu przychodzącego dla danego słowa kluczowego) okazało się , że korelacja miedzy share’owaniem treści a pozycjonowaniem strony wynosi jedynie 1%. Dla tych samych stron i aktywności sprawdzono jednak powiązania między aktywnościami społecznościowymi a rosnącą liczbą słów kluczowych, okazało się, że korelacja wynosi 59%, a to już jest solidna wartość. Jednocześnie nasuwa się wniosek, że każdy problem należy podejść z kilku stron, bo nie zawsze jedna prawdziwa odpowiedź jest wyczerpaniem tematu.

Google nieustannie utrzymuje, że aktywność w mediach społecznościowych nie wpływa bezpośrednio na algorytm. Specjaliści zgadzają się z tym założeniem. Korelacja na poziomie 70% występuje między liczbą domen linkujących a share’ami. Jak podaje Majestic SEO może wzrosnąć do 81% jeśli strona, do której linkujemy cieszy się zaufaniem Google. 76% wynika z korelacji między liczbą słów kluczowych a ilością linków pochodzących z zaufanych stron oraz udostępnień w social media.

Wnioski

Wszystko to prowadzi do prostego wniosku, że Google faworyzuje wzrastające ilości słów kluczowych i zaufane domeny. Powyższy wywód prosty i trafny, a przede wszystkim umiejetnie udowadniający, że warto każdą sprawę sprawdzić wszechstronnie.

Patrząc na te dane nasuwa się wniosek, że social shares i zaplecze jakościowych back-linków pomaga zdobyć dobrą pozycję. Dlatego jeśli tworzysz treść można stwierdzić, że kluczowe wskaźniki efektywności to podlinkowanie treści oraz „rozgłos” zdobyty w mediach społecznościowych.

Podsumowując: ciekawość i analityczny umysł (lub analityczny arkusz kalkulacyjny), jak najwięcej danych i jak najwięcej pytań stawianych tym danym to podstawa sukcesu każdego badacza SEO. Jeśli chcemy zajmować się pozycjonowaniem skutecznie i tworzyć dobrą analizę SEO, obudźmy w sobie ciekawość na wiosnę:).

 

Serwis przyjazny urządzeniom mobilnym – Google Mobile Friendly Update

User is a king – zdecydował Google niedawno, pozbawiając w ten sposób tronu władcę dotychczasowego – content. Sprawę wieszczyło już na początku roku wielu specjalistów SEO, czas zdaje się potwierdzać te domniemania. Nadeszła nowa epoka, gdy największą zaletą, jaką w oczach Google może mieć strona internetowa, jest wszechstronne zapewnienie wygody użytkownikowi – czyli serwis przyjazny urządzeniom mobilnym. Ma być szybko, sprawnie, wygodnie, intuicyjnie, przede wszystkim zaś strony mają być dostępne bez względu na to, czy user zamierza zwiedzać www za pomocą podarowanego na Pierwszą Komunię PC, służbowego laptopa, super sprawnego smartfona czy jakiegokolwiek innego urządzenia.

Oczywiście – wszystko to są w pewnym stopniu plotki, ponieważ decyzje Google często obwieszczane są z opóźnieniem lub wcale. Niekiedy zmiany wprowadzane są z zaskoczenia, czasem stopniowo. W znacznym stopniu specjaliści uprawiają więc swoiste wróżby, ewentualnie hazard, tak jak ja, kiedy staram się przewidzieć, które narzędzia SEO mogą być przydatne – tak jak robiłem to w ostatnim poście. W tym wypadku są jednak dowody potwierdzające przypuszczenia – Google udostępnił jakiś czas temu narzędzie pozwalające skontrolować, czy i jak strona funkcjonuje mobilnie. Od tej pory plotki dotyczące zainteresowaniem giganta z Mountain View tym aspektem funkcjonowania strony, zmieniły się w pewniaka. Sam Google zapowiada zmiany od końca kwietnia. Swoją drogą: narzędzie do badania mobilności nie jest doskonałe, ale trudno mu odmówić skuteczności. Polecam bliższe zaznajomienie z tematem – nie tylko dostajemy informację, że nie działamy mobilnie, ale też wskazówki, jaki zmiany są konkretnie potrzebne (np. rozmiar tekstu).

Jeszcze niedawno wielu specjalistów od SEO z lekceważeniem odnosiło się do statystyk dla stron mobilnych.  Nie było przewinieniem nie wiedzieć, że strona standardowa i mobilna mają w ogóle osobne rankingi. Pod koniec stycznia 2015 roku taką wiedzę posiadł już chyba każdy. Oczywiście wiedza nie wzięła się z komunikatu, tylko z nagłych i zaskakujących zmian statystyk. Na forach SEO, szczególnie zagranicznych, zapanował popłoch. Zlecieć z dnia na dzień z TOP10 na piątą stronę? Pod koniec stycznia takie zdarzenia były powszechne. Zresztą – przypadki gwałtownego awansu stron, które nawet administrator słabo kojarzył – też się zdarzały.

Wtedy cały świat SEO zrozumiał, że jeśli wersji mobile nie przewidywały plany na 2015, to właśnie zaczęły. Nie tylko wersja mobilna ma to znaczenie – chodzi o komfort użytkowania (UX – User Experience).  Google skoncentrował się na rynku mobilnym, który rozumieć należy jako łatwy, powszechny dostęp z dowolnego urządzenia – przede wszystkim mobilnego: smartfona, tabletu, itp. Dodatkowo ważne stało się tempo ładowania strony. Nagle treści zeszły na drugi plan, na pierwszy wysunęła się łatwość ich odnalezienia i czytania/oglądania. Czy to przypadek ? – nie sądzę w końcu Google to twórca najbardziej popularnego systemu operacyjnego wykorzystywanego na urządzeniach mobilnych [źródło: ranking.pl].

Na początku roku można było odnotować pierwsze symptomy zmian, na przykład w wynikach wyszukiwania pojawiły się oznaczenia „mobilefriendly”. Realizacji mobilności są dwa rodzaje: mobilna wersja strony lub aplikacja. Google raczej nie dyskryminuje żadnej z tych opcji – jeśli tylko użytkownicy mobilnych urządzeń mogą korzystać wygodnie z Twoich treści, Google jest zadowolony.

Można myśleć, że sprawa jest wydumana – chociaż nie oszukujmy się – to uzasadniony postępem technologicznym znak czasów. Można mówić, że ta niewielka zmiana zbyt dużo nie zepsuje. Wystarczy jednak sobie wyobrazić, co to będzie dla statystyk strony, a co za tym idzie – dla np. zysków firmy – jeśli okaże się, że w pewnym sensie nieuprzejmie traktujemy 30% klientów. Tyle właśnie może trafiać do nas mobilnie. Jeśli nie będziemy na nich przygotowani – Google uprzejmie skieruje ich na inną, bardziej przyjazną stronę.

Brzmi strasznie? Polecam sklikanie narzędzia Google, zapoznanie się ze wskazówkami i rozsądny plan zmian ASAP. Od razu będzie Wam się lepiej spało.

Najlepsze narzędzia SEO online 2015

Dobry analityk SEO wie jak wykorzystać istniejące narzędzia do analiz i odpowiedzi na pytanie – czego Google wymaga od konkretnej strony. To ciężka praca ponieważ przed specjalistami SEO Google stawia wciąż nowe wymagania. Oczywiście specjaliści nie spodziewają się rewolucji – jednak gigant z Mountain View wciąż ma przede wszystkim na uwadze dobro odbiorców treści prezentowanych w sieci. Jak wynika z mniej lub bardziej oficjalnych, ostatnich plotek – nacisk na „wartościowe, unikalne treści” powoli staje się coraz lżejszy, znaczenia zaś nabiera komfort użytkowania strony. na łaskawość Google liczyć będą mogły strony działające też na urządzeniach mobilnych, dbające o bezpieczeństwo internautów (https://), nawigowane intuicyjnie i  szybko podające oczekiwane przez Internautów treści.

Nowe wymagania Google zmuszają nas do sięgnięcia po nowe narzędzia SEO online (a tych w 2015 roku zapowiada się sporo) oraz do świeżego spojrzenia na rozwiązania już znane. Przegląd nowości i niezbędnych klasyków przeprowadziłem już rok temu – sporo moich typów potwierdziło skuteczność, trudno więc odmówić sobie przyjemności ponownego sondowania rynku.

Niektóre narzędzia nadają się świetnie do przeprowadzania analiz, inne najlepiej raportują, jeszcze inne są niezastąpione przy analizach linkowania. Są jednak rozwiązania, które nadają się do wszystkiego, są niezwykle wszechstronne i samowystarczalne i tak jak rok temu przywołać muszę w tym miejscu złoty Graal SEO-wców – MOZa. Nie oszukujemy się, nie znajdziemy raczej żadnego rankingu narzędzie SEO bez tego zawodnika. Wart odnotowania z MOZowej stajnie jest chociażby Open Site Explorer, całkiem zgrabne rozwiązanie dla użytkowników spragnionych dogłębnych analiz linków.

Inna sprawa, którą trzeba mieć na oku: rosnąca moc Twittera. Wiesz, że coś się dzieje, ale nie wiesz do końca co, a przede wszystkim – co z tym zrobić dla dobra Twojej strony? MOZ ma na to narzędzie: Followerwonk. Miejcie na uwadze Twittera, rośnie w siłę, warto mieć w nim sojusznika. Ciekawym rozwiązaniem w zakresie dbania o swoje interesy w mediach społecznościowych jest Sprout Social. Interakcja to zjawisko lubiane przez Google, więc Twoja strona powinna być ulubieńcem wszelkich Facebooków i siedliskiem wszystkich możliwych społecznościowych wtyczek, dlatego warto mieć pomoc w rozsądnym zarządzaniu kampaniami. Google ofcjalnie twierdzi, że social media nie mają wpływu na pozycjonowanie, ale nie oszukujmy się – pośrednio mają. Dlatego nie można sobie pozwolić na lekceważenie w tej sprawie.

Innym klasykiem, który warto mieć pod ręką, jest SEMrush.com. Pozwala zajrzeć wszędzie tam, dokąd nie zaprowadzi nas Google Analytics. Skoro o tym podstawowym rozwiązaniu mowa – Google często ze sporym opóźnieniem komunikuje zmiany, jednak sygnały – i to całkiem czytelne – daje na bieżąco. Tak było choćby z zakładką „Obsługa na urządzeniach przenośnych” w Narzędziach Google dla webmasterów. Nagle stało się jasne, że mobilność w SEO ma znaczenie. Trudno tylko powiedzieć, czy duże, ogromneczy jeszcze znikome.

Trudno się nie zgodzić z tymi, którzy do działań analitycznych polecają Majestic SEO. Wystarczy zajrzeć do ich listy dostępnych narzędzi, żeby zrozumieć, że potrafią sprawdzić i zbadać wszystko. Nawet to, o czym nigdy byś nie pomyślał, zastanawiając się nad czynnikami mającymi wpływ na Twoją stronę: linki, adresy, domeny, otoczenie. Odnotują, zbadają, dostarczą informacje.

Jeśli komuś sen z powiek spędza wizja zduplikowanego contentu – a powinna, bo to jeden z najsilniejszych alergenów Google, powinien sięgnąć po odpowiednią broń. Wart polecenia na takie okazje jest Siteliner czy Sitechecker. Dobrze jest też mieć Screaming Froga, który umożliwia gruntowne sprawdzenie serwisu oraz wszystkich jego podstron (nagłówki, title i description, linkowanie wewnętrzne, canonicale oraz przekierowania). Jak wspominałem na początku, użytkownikowi ma być u nas wygodnie, trzeba więc sprawdzać, czy wszystko działa jak powinno.

Na liście czynników budujących komfort internauty, a więc wpływających na naszą pozycję w wynikach wyszukiwania, wymieniłem prędkość ładowania strony. Jak sprawa ta wygląda w przypadku naszej strony – sprawdzić to można szybko, łatwo i za darmo. Niech to będzie w tym roku jeden z ważniejszych adresów: PageSpeedInsights.

Podsumowując, dzięki użyciu powyższych narzędzi SEO Wasz serwis ma duże szanse dobrze zaprezentować się przed Google-em …

Mądre maszyny – narzędzia marketingu

Pamiętacie jeszcze o Big Data? Na pewno pamiętacie, trudno o tym obecnie zapomnieć. jeśli komuś się przydarzyła jednak informacyjna luka – polecam moje wyjaśnienia dotyczące tych niewyobrażalnych ilości danych, które bez przerwy pojawiają się w Internecie oraz tego, co można z nimi zrobić.

Big Data operuje na dużej ilości danych o różnej wartości – często niezwykle interesujących dla marketerów jako źródło wiedzy na temat klientów. Jak jednak wykorzystać tę wiedzę, jak ją zanalizować w czasie rzeczywistym, czyli tak, by mieć gotową odpowiedź, gdy tylko pojawi się zapytanie czy wyrażona aktywnością internetową potrzeba klienta? Człowiek jest tu zupełnie bezradny – w przeciwieństwie do maszyn, które bezustannie się uczą. Maszyny uczące się, czyli machine learning, to temat mojego ostatniego postu. Dziś zamierzam przybliżyć Wam zastosowanie uczenia maszynowego w marketingu.

Wbrew pozorom, mądrzejsze maszyny nie przełożą się — przynajmniej w najbliższym czasie – na redukcję pracowników „ludzkich”. Ucząca się maszyna – tak jak każda inna – przeglądów, doskonalenia i obsługi – osiągnięcie spektakularnych efektów jest możliwe po zintegrowaniu odpowiednich procesów, ludzi, treści, danych i informacji. Natychmiastowe korzyści wypływające z automatyzacji marketingu wyraźnie polepszają wydajność, elastyczność i kreatywność w obrębie całej firmy.

Co nam daje maszyna, która bezustannie zbiera i analizuje dane?

Dzięki takiemu rozwiązaniu szybciej, sprawniej i skuteczniej poznajemy klientów. Dowiadujemy się, kto i w jaki sposób do nas trafił, jak korzysta z serwisu i na jakiej płaszczyźnie można/należy zoptymalizować kampanie marketingowe.  Wyniki pracy maszyny pozwalają zbudować strategię i nawiązać kontakt z klientem, wtedy, kiedy on tego rzeczywiście potrzebuje i oczekuje.  Paradoksalnie, udział maszyny w komunikacji z klientem pozwala na budowę osobistej relacji – często przecież podstawą kontaktu są dane wrażliwe, które potencjalny klient ujawnia w sieci.

Wykorzystanie wiedzy maszyn pozwala maksymalne sprzężenie działań wszystkich działów firmy (z naciskiem na sprzedaż) i podniesienie efektów. innowacyjność, kreatywność, komunikatywność, umiejętność szybkiego przyswajania wiedzy, zdolności analityczne – brzmi jak opis idealnego pracownika? Dodajemy do tej wyliczanki „niskie koszty eksploatacji” i już wiemy, dlaczego maszyny uczące są ważnym elementem zespołu. „Kreatywność” może budzić pewne wątpliwości – w końcu omawiamy zalety maszyny. Pamiętać należy, że odpowiednia aplikacja czy oprogramowanie to coś w rodzaju pracownika działu. Jeśli aplikacja zajmuje się przewidywalnymi, powtarzalnymi zadaniami – na przykład przypomina klientom o terminach spotkań, pozostali, żywi członkowie załogi mają czas na obowiązki wymagające większej elastyczności, pomysłowości, natchnienia. Wkład maszyny w pracę działu marketingu najlepiej jest rozpatrywać właśnie przez pryzmat jej wkładu w funkcjonowanie całej komórki, czy nawet firmy.

Warto zwrócić uwagę na kilka narzędzi marketingu, które ułatwiają działania marketingowe i wykorzystują do tego machine learning:

SAS – środowisko stworzone przez SAS Institute. Nazwa pochodzi od angielskiego Statistical Analysis System.

Funkcjonalność obejmuje m.in.:

  • import i przetwarzanie danych, wyszukiwanie informacji, zarządzanie danymi oraz eksploracja danych,
  • generowanie raportów i grafiki,
  • analizę statystyczną,
  • niezależność od platformy systemowej, możliwość prowadzenia zdalnych obliczeń.

SAS jako środowisko programistyczne umożliwia programowanie w różnych językach, w zależności od potrzeb:

  • SAS 4GL – najpopularniejszy język w środowisku SAS
  • SQL – język zapytań do baz danych
  • SCL (Screen Control Language) – budowa aplikacji okienkowych w środowiskach graficznych, np. Windows, XWindow
  • makra
  • możliwość integracji z językami C, COBOL, FORTRAN, PL/I, IBM assembler

IBM Predictive Customer Intelligence personalizuje kontakt z klientem, przedstawiając rekomendacje oparte na zachowaniach zakupowych, aktywności internetowej (w tym społecznościowej) oraz innych czynnikach unikalnych dla konkretnego użytkownika. Zasada działania jest prosta: programowanie w sposób zautomatyzowany zbiera informacje z różnych źródeł wewnętrznych i zewnętrznych oraz modeluje zachowania klientów. Następnie przeprowadza ocenę alternatywnych możliwości i proponuje najlepsze działanie, jakie można podjąć na danym etapie interakcji z klientem — tak, aby proponować trafne oferty właściwym klientom w najlepszym do tego czasie.

IBM Predictive Customer Intelligence realizuje następujące funkcje:

  • Analizy predykcyjne, które pomagają w przewidywaniu zachowań poszczególnych klientów.
  • Zarządzanie procesami decyzyjnymi mające na celu przekształcenie oceny modelu predykcyjnego w rekomendację działania.
  • Oceny w czasie rzeczywistym pozwalające generować i aktualizować prognozy na żądanie.
  • Optymalizacja uwzględniająca więcej niż jedną kampanię z myślą o podejmowaniu jak najkorzystniejszych decyzji dotyczących poszczególnych klientów.
  • Segmentacja klientów w oparciu o wartość w całym okresie trwania relacji — służąca klasyfikacji i zatrzymywaniu klientów.

RapidMiner dostarcza oprogramowanie, rozwiązania i usługi w dziedzinie zaawansowanych analiz, w tym analiz predykcyjnych, data mining i text mining. Pozwala automatycznie i inteligentnie analizować dane – w tym baz danych i tekstu – na dużą skalę. Nasza technologia pozwala firmom na wykonanie przy użyciu inteligentnych decyzji biznesowych oraz działań opartych na metodzie prognozowania. Flagowym produktem jest RapidMiner 4.0, najczęściej stosowana do zaawansowanej analityki platforma na rynku. Setki tysięcy aplikacji są już używane w ponad 50 krajach, zarówno jako samodzielne aplikacje, jak i silniki zintegrowane z własnymi produktami klientów; daje to silną przewagę konkurencyjną. Trudno nie wierzyć w to rozwiązanie, skoro wiemy, że zaufały mu firmy takie jak: EADS GfK, Lufthansa, PayPal, Pepsi, Sanofi, Siemens, Telenor i Volkswagen.

STATISTICA – zintegrowany pakiet oprogramowania statystycznego i analitycznego wydany przez firmę StatSoft. STATISTICA daje szeroki wybór procedur analizy i zarządzania danymi, zapewnia także wizualizację wyników analizy oraz generowanie raportów.

  • 1991. Pierwsza, DOSowa wersja programu STATISTICA. Nowa, zorientowana graficznie linia programów statystycznych została wydana w marcu 1991.
  • 1992. Wersja programu STATISTICA dla komputerów Macintosh
  • 1993. Wersja programu STATISTICA dla systemu Microsoft Windows
  • 1994-1998. Program STATISTICA w wersjach – 4.0, 4.5, 5.0, 5.1 oraz wydania ’97 i ’98
  • 2001. Nowa generacja pakietu STATISTICA. Wydanie wersji 6 programu STATISTICA opiera się na architekturze COM i korzysta z nowych technologii, takich jak wielowątkowość i wsparcie dla przetwarzania współbieżnego.
  • 2002-2004. Wprowadzanie rozwiązań wykorzystujących rozproszone realizowanie zadań oraz rozwiązań bazujących na interfejsie przez WWW.

Cztery narzędzia marketingu  – to tylko dobry początek. W tej dziedzinie wiele się dzieje, jeszcze więcej będzie się działo z czasem. Obserwujemy:)