MENSIS
45/2017
MENSIS.PL magazyn skierowany do sprzedawców internetowych wydawany regularnie od listopada 2011 r. Na łamach magazynu poruszamy tematy dotyczące e-handlu, e-marketingu i e-biznesu dostarczając wyłącznie merytoryczne treści. Wychodzimy z założenia, że w dzisiejszych publikacjach i serwisach branżowych jest wystarczająco dużo wypowiedzi ekspertów naszpikowanych pracą działów PR. Chcemy to zmieniać! Zapraszamy też do odwiedzania serwisu www.mensis.pl
WYDAWCA MENSIS.PL EVOLUTIVE Konradowo 22A, 67-106 Otyń NIP 9281877891 REGON 080162022 Tel: 607 626 368 Email: biuro@mensis.pl www.mensis.pl
REDAKCJA Krzysztof Rdzeń Andrzej Lemański Jakub Szajdziński Karolina Kalińska
WSPÓŁPRACA Maciej Dutko Piotr Oracz Krzysztof Skubis Arkadiusz Roszak Krzysztof Marzec Łukasz Wołek Marta Komar Robert Banaszak Karol Przybyszewski Maja Kowalska Jola Uździcka
WSTĘP
Krzysztof Rdzeń redaktor naczelny
R
ozpoznanie oczekiwań konsumentów oraz trafne zaspokajanie ich potrzeb to fundamentalne umiejętności e-commerce managera. Zadowolony klient jest wypadkową permanentnej analizy rynku, dobrze przygotowanej oferty oraz odpowiednio dobranych narzędzi. I choć każdy z tych obszarów wymaga osobnych kompetencji, to wszystkie razem powinny tworzyć koherentny system sprzedaży gwarantujący pozytywne doświadczenia użytkownikom i klientom. W tym wydaniu „Mensis.pl” prezentujemy zagadnienia wpływające bezpośrednio na sprzedaż w sklepie internetowym. Wiodące trendy i zaawansowane rozwiązania marketingowe zestawiamy z fundamentalnymi informacjami na temat konwersji i aktywności okołosprzedażowej w e-commerce. Analizujemy konwersję pod kątem oferowanych sposobów dostawy. Potwierdzamy zasadność przyjaznej polityki zwrotów. Piszemy o utrzymaniu kluczowych wskaźników efektywności oraz prawidłowym podejściu do prowadzenia testów i poprawiania wartości koszyka. Nowy rok to nowe horyzonty i możliwości. Dlatego w styczniowym „Mensis.pl” rozmawiamy o nich w kontekście rozwiązań retargetingowych, inwestycji venture capital, technologii dronowych oraz sztucznej inteligencji. A wiedząc, że sama wiedza nie wystarcza, przypominamy o dobrych postanowieniach i nawykach, zahaczając o punktualność. Bo przecież nie warto spóźnić się już na starcie!
MENSIS
45/2017
SPIS TREŚCI
FELIETONY 06
24
Jak być punktualnie... prawie zawsze?
5 trendow, które zdominują IT w 2017 KAROL PRZYBYSZEWSKI
MARKETING 48
KRZYSZTOF SKUBIS 09
13
KRZYSZTOF MARZEC
Sztuczna inteligencja. Gdzie szukać zagrożeń? ARKADIUSZ ROSZAK 2016 rokiem postprawdy. 2017 rokiem kłopotów w biznesie?
Kampanie dynamiczne w AdWords – Dynamic Search Ads
STRATEGIE 28
Jak nie robić optymalizacji konwersji?
53
Rozwiązania Marketing Automation dla ecommerce MAJA KOWALSKA
PIOTR ORACZ 31
ANDRZEJ LEMAŃSKI
Jak opcje dostawy wpływają na sprzedaż w e-sklepie
58
Zdjęcia na allegro – nowe zasady tworzenia miniaturek MACIEJ DUTKO
MARTA KOMAR
RYNEK 16
Relacje na żywo, jak wykorzystać je w e-commerce Łukasz Wołek
19
22
34
Chcąc konkurować ze sklepami tradycyjnymi, branżą e-commerce powinna poprawić politykę infromacyjną dotyczącą zwrotów Drony – humbug, pieśń przyszłości czy nieubłagana technologia jutra ANDRZEJ LEMAŃSKI
Polska spółka RTB House zdobywa światowy rynek programmatic KRZYSZTOF RDZEŃ
38
RUBRYKI STAŁE 61
Efektywność marketingu – jak I co mierzyć ROBERT BANASZAK
42
Wywiad z Jakubem Ślusarczykiem – współzałożycielem Protos VC
Rejestracja zbiorow danych osobowych, a rejestracja ABI – wszystko co musisz wiedzieć o ochronie danych osobowych w Twojej firmie JAKUB SZAJDZIŃSKI
63
ARKADIUSZ ROSZAK
Chmura obliczeniowa czy serwer dedykowany. Jak porównać nieporównywalne? JOLA UŹDZICKA
66
Google Tag Manager w sklepie internetowym KAROLINA KALIŃSKA
PARTNERZY
6
mensis.pl
Jak być punktualnym ... prawie zawsze?
felieton
Krzysztof Skubis
Często się spóźniasz? Widzisz jak to irytuje innych? Próbowałeś / próbowałaś to zmienić, ale Ci się nie udawało? Poddałeś / poddałaś się już? Czy masz nadal ochotę walczyć? Namawiam Cię do dalszego czytania niezależnie od tego, czy się już poddałeś / poddałaś, czy nadal chcesz walczyć? Co masz do stracenia? 5-10 minut. A może mój pomysł sprawdzi się też w Twoim przypadku? Ty się spóźniasz, ale nie masz wyjścia? W firmie, w której pracujesz jest tak dużo spotkań, że masz w kalendarzu spotkanie po spotkaniu: „a przecież się nie rozerwiesz”? A kto zapełnia Twój kalendarz „na styk”? Asystentka? A zakazałeś / zakazałaś takiego procederu? A dlaczego właściwie musisz być na całym spotkaniu? A dlaczego spotkania muszą trwać wielokrotność pół godziny lub nawet wielokrotność godziny? Ty się nie spóźniasz? I masz dość czekania na innych? Słuchania jak bardzo są zajęci (bo Ty, rzecz jasna, nie masz żadnych zajęć)? Albo lekceważenia Twojego czasu poprzez spóźnianie się bez żadnego usprawiedliwienia – jakby to było oczywiste, że można się spóźniać, bo to żaden problem? Też namawiam Cię do czytania. Piszę też o tym co robić, gdy czekasz na innych. Komu nie polecam swojego tekstu? Osobom, które spóźniają się specjalnie, aby „zrobić wrażenie”, przyciągnąć uwagę. Proponuję metodę, która pozwala wyeliminować spóźnianie niezamierzone. O ile zechcesz podjąć wysiłek, aby proponowaną metodę zastosować. Dygresja: Sam spóźniam się bardzo rzadko (stosuję swoją metodę w praktyce). Ale wyznaję zasadę, że na spotkania towarzyskie w mieszkaniu osób zapraszających przychodzę z lekkim (ok. 5. minutowym) spóźnieniem. Chodzi o to żeby dać gospodarzom ekstra 5 minut na dokończenie przygotowań. Nigdy nie przychodzę na takie spotkania przed czasem.
felieton
Co powoduje, że ludzie się spóźniają? Byłem osobą (już nie jestem), którą niezmiernie irytowało, gdy inni się spóźniali. Zawsze wyliczałem ile to czasu zostało zmarnowane: np. 20 osób czekało 7 minut na jedną osobę - daje to razem 140 minut straconego czasu. Uważałem spóźnianie się za przejaw braku szacunku dla innych osób. Ktoś kto się spóźnia mówi (tak wtedy myślałem): „ja jestem bardziej zajęty od Ciebie, czyli jestem ważniejszy”. Zdarzyło mi się nawet odczekać aż permanentny spóźnialski dotrze na nasze (1:1) spotkanie (spóźnił się ponownie mimo, że mu powiedziałem jak ważna jest dla mnie punktualność) i w tym momencie demonstracyjnie wyjść. Gdy ja prowadziłem spotkania – zaczynałem punktualnie nie czekając na spóźnialskich, nawet, gdy były to „bardzo ważne osoby”. Ale gdy spóźniał się prelegent – nie było rady: trzeba było czekać i „marnować czas”. Brzmi znajomo? Witaj w klubie.
Teraz uważaj: ogromna większość permanentnych „spoźniaczy” nie chce się spóźniać. Oni nienawidzą się spóźniać, nie lubią się tłumaczyć, nie lubią tych pełnych potępienia porozumiewawczych spojrzeń: „znowu się spóźnił / spóźniła”. Chcą coś zmienić, ale nie potrafią. Często głęboko wierzą, że mają tyle zajęć iż po prostu „nie mają innego wyjścia”. Tak, wiem. Myślenie w stylu „ja mam tyle na głowie” nie jest żadnym usprawiedliwieniem. Zgoda. Ale Ci „spóźniacze” nie widzą wyjścia ze swojej sytuacji. Nawet, gdy wprowadzą priorytety to nadal „brakuje im na wszystko czasu”. Więc muszą na czymś ten czas zaoszczędzić. I na czym oszczędzają? Na czasie dojazdu, dojścia do miejsca spotkania. Bo uważają ten czas za stracony / zmarnowany. Trzeba gdzieś dotrzeć,
mensis.pl
trzeba stamtąd wrócić: razem np. 1,5 godziny. Zmarnowane? Zmarnowane.
„W poszukiwaniu straconego czasu” Istota mojego pomysłu opiera się na odzyskiwaniu „czasu straconego na dojazdy”. Z góry planuję sobie kilka opcji na czas dojazdu na spotkanie i powrotu ze spotkania. W moim wypadku są to: •
Interesująca książka.
•
Ciekawy audiobook.
•
Fajny film (skopiowany na smartfona).
•
Przegląd poczty elektronicznej na smartfonie (odpowiedzi na niektóre).
•
Przegląd mojego kalendarza.
•
Przegląd zadań.
•
Rozmowy biznesowe.
•
Rozmowy telefoniczne z bliskimi.
•
Ćwiczenia umysłowe (np. powtórka z wiedzy, medytacja, przemyślenie jakiegoś problemu).
•
Ćwiczenia fizyczne: np. oddechowe, rozluźniające, itp.
Na pewno masz już swoje pomysły, których ja nie uwzględniłem.
7
Umawianie się na spotkanie Odpowiedzialne umawianie się na spotkania jest warunkiem koniecznym (choć niewystarczającym), aby być punktualnym. Co znaczy „odpowiedzialne umawianie się”? Dla mnie oznacza, że gdy się z kimś umawiam na spotkanie to w czasie takiej rozmowy od razu sprawdzam w swoim kalendarzu, jakie terminy mi odpowiadają. Nawet jeśli jest to rozmowa przez telefon – przełączam rozmówcę w tryb głośnomówiący i otwieram swój kalendarz na smartfonie. Umawiając się na spotkanie od razu ustalam, ile będzie trwało i gdzie ma się odbyć. •
Otwieram swój kalendarz
•
Ustalam z rozmówcą ile będzie trwało spotkanie
•
Pytam rozmówcę o preferencje, co do terminu – porównuję ze swoim kalendarzem. Niektóre propozycje natychmiast wykluczam, gdy kolidują np. z innymi spotkaniami. Inne uzależniam od miejsca spotkania – biorę pod uwagę czas dojazdu (plus 15 minut „bufora czasowego”) z miejsca gdzie będę przed spotkaniem, o którym mówimy, ale również czas dojazdu do miejsca następnego spotkania (plus 15 minut „bufora”). Upieram się (wewnętrznie) przy „buforze czasowym” z trzech względów:
Rzecz jasna nie wszystkie opcje są dostępne w każdych okolicznościach. Inne są dostępne, gdy podróżuję własnym samochodem, inne, gdy środkami komunikacji miejskiej. Inne, gdy jadę sam, a inne, gdy jadę w towarzystwie. Inne, gdy w autobusie siedzę, a inne, gdy stoję. Itd.
1. Każde spotkanie może się troszkę przedłużyć – warto mieć chwilę czasu, aby je chociaż podsumować i zdecydować, co dalej (np. umówić się na kolejne spotkanie).
Co więc robię? Przed podróżą (nawet krótką) przygotowuję sobie kilka takich opcji, które będą dostępne w tej konkretnej podróży.
3. Moje szacunki czasu dojazdu mogą się nie sprawdzić – np. korki będę większe niż zwykle.
2. Potrzebuję trochę czasu, aby przygotować sobie zajęcia/pomysły na czas dojazdu.
8
•
•
Pytam rozmówcę o preferencje, co do miejsca. Porównuję z lokalizacją mojego poprzedniego spotkania w danym dniu, ale też z lokalizacją mojego następnego spotkania. Ustalamy wspólnie lokalizację, która pozwala mi punktualnie dotrzeć na właśnie umawiane spotkanie (muszę mieć też „bufor czasowy”), ale również punktualnie dotrzeć na kolejne spotkanie (tu też muszę mieć „bufor”). Jeśli - z powodu preferencji mojego rozmówcy - nie możemy znaleźć lokalizacji, która spełnia powyższy warunek: szukamy innego terminu.
•
Wpisuję w kalendarzu alarm związany z umawianym obecnie spotkaniem
•
Ustawiam ten alarm na termin związany z końcem poprzedniego spotkania.
•
felieton
mensis.pl
Koryguję alarm związany z następnym spotkaniem. Ustawiam na termin związany z zakończeniem obecnie umawianego spotkania.
Jeśli umawiam się na spotkanie w termin, gdy wcześniej nie mam spotkania – ustawiam wstępny alarm uwzględniając czas dojazdu z mojego domu lub biura (plus 15 minut bufora). Będąc przy komputerze sprawdzam przewidywany czas dojazdu zarówno samochodem jak i komunikacją miejską. W obydwu przypadkach sprawdzam przewidywany czas dojazdu w dniu i godzinie spotkania. Wybieram ten środek komunikacji, który wskazuje krótszy czas dojazdu.
Jak wyjść z domu lub biura o zaplanowanej porze?
Podsumowując: umawiam się na spotkania odpowiedzialnie, mam wpisane w kalendarz alarmy uwzględniające czas dojazdu na spotkanie (plus 15 minut bufora czasowego). Niestety to nie wystarcza. Teraz muszę być konsekwentny we wdrożeniu tego planu w życie. I wiele osób na tym etapie się wykłada. Ja raczej tego nie robię – stosuję następujące reguły.
lub inne narzędzie, które ma mnie doprowadzić do celu. Np. drukuję mapkę okolicy, w której będzie spotkanie.
1) Alarm związany ze spotkaniem jest przerwaniem o najwyższym priorytecie Gdy słyszę ten alarm - wiem, że czas zakończyć pracę nad tym nad czym właśnie pracowałem. Jeśli jest to np. dokument – kończę zdanie, dodaję krótką notatkę, co jeszcze w dokumencie powinienem zrobić, zapisuję wynik mojej pracy.
Korzystam z jednej z opcji, które przygotowałem na czas podróży -> patrz akapit: „W poszukiwaniu straconego czasu”.
2) Przygotowuję listę pomysłów na podróż Uwaga: Nie realizuję żadnych pomysłów na to, co jeszcze mogę zrobić w domu lub biurze przed wyjściem (z wyjątkiem tych, które zajmują nie więcej niż jedną minutę). Wszystkie inne pomysły zapisuję na karteczce, którą kładę w widocznym miejscu – zrobię to, gdy wrócę ze spotkania. A więc: „dosypać kotom karmy do misek” - robię, „opróżnić zmywarkę” – zapisuję na listę, „podlać kwiaty” – zapisuję na listę”, „wysłać maila do kolegi” – zapisuję na listę. 3) Zabieram ze sobą narzędzia do realizacji pomysłów na podróż Np. przegranie filmu na smartfona może zająć kilka minut. 4) Jeśli nie byłem jeszcze na miejscu spotkania – sprawdzam teraz jak tam dojechać Przygotowuję sobie „plan awaryjny” gdyby zawiódł mój smartfon
Wychodzę spokojny – z „bufora czasowego” zużyłem 5-10 minut (jeszcze 10-5 minut mam w zapasie).
Co robić, gdy jestem za wcześnie (lub inni się spóźniają)?
Krzysztof Skubis Pomagam w opanowaniu stresu (zarządzaniu emocjami). Większość życia zawodowego spędziłem w korporacjach, głównie jako manager lub kierownik projektu (w obszarze IT). Mam za sobą wiele korporacyjnych szkoleń z zakresu coachingu i mentoringu oraz wieloletnie doświadczenie jako coach i mentor. Zdobyłem certyfikat ACC wydany przez International Coach Federation (ICF), jestem też Certyfikowanym Coachem CoachWise. Mam też kilkuletnie doświadczenie jako instruktor i trener. Piszę o coachingu, stresie, emocjach w Productive! Magazine oraz Mensis.pl. Prowadzę też bloga: http://skris.pl/. Jestem magistrem fizyki oraz doktorem nauk medycznych.
felieton
mensis.pl
9
Sztuczna inteligencja. Gdzie szukać zagrożeń?
Arkadiusz Roszak
W ostatnim numerze Mensis, analizując zagadkową informację Banku of America Merrill Lynch (BAML) na temat dużego prawdopodobieństwa wirtualizacji naszej rzeczywistości, natrafiłem na trop znanego miliardera z Doliny Krzemowej, Elona Muska. Właściciel Tesli Motors i SpaceX, podczas konferencji Code 2016 w kalifornijskim Rancho Palos Verdes, stwierdził że „jeżeli jest jedna bazowa rzeczywistość oraz miliardy symulacji komputerowych, które są jej naturalnym rozwinięciem - symulacji doskonałych, których uczestnicy nie są w stanie się zorientować, że są w symulacji - to szansa na to, że nasze życie rozgrywa się w obrębie tej jednej bazowej rzeczywistości, a nie jest jedną z miliarda symulacji, jest jak jeden do miliardów.” W tym samym wywiadzie Musk odniósł się także do innej rzeczywistości, pośrednio związanej z teorią symulacji, która coraz mocniej nurtuje opinię społeczną i coraz bardziej stymuluje środowiska naukowe do podjęcia merytorycznej dyskusji. Mowa o artificial intelligence (AI), czyli sztucznej inteligencji (SI). W 2015 roku Future of Life Institute (FLI) przedstawił list otwarty wzywający do odpowiedzialnego i zrównoważonego rozwoju AI według ustalonych priorytetów badawczych, takich jak: prognozowanie rynku pracy, analiza rynków finansowych, rozwiązanie problemów gospodarczych czy wspieranie polityk społecznych. Dokument w dużej mierze był reakcją środowisk akademickich, naukowych i biznesowych na niepokojący rozwój militarnych systemów inteligentnych, których autonomia pozwalałaby na samodzielne podejmowanie decyzji w kwestii eliminacji celów podczas konfliktów
zbrojnych. Pod listem podpisało się około tysiąca sygnatariuszy, wśród których znalazły się wybitne autorytety w dziedzinie nauk ścisłych, CEO wiodących firm technologicznych, a także celebryci ze świata publicystyki i kultury. I jeżeli znane nazwiska, Stephena Hawkinga (astrofizyka), Morgana Freemana (aktora) czy Alana Aldy (reżysera i scenarzysty), nie wywołują niepokoju z racji na stosunkowo niewielki lub minimalny poziom zaangażowania w dziedzinę AI. To już podpisy wyjątkowych znawców tematu oraz założycieli i pracowników najbardziej prestiżowych ośrodków AI, w osobach Stuarta Russella
(UC Berkeley), Percy Lianga (Stanford University), Nicka Bostroma (Oxford University), Erica Horvitza (Microsoft), Demisa Hassabisa, Laurenta Orseau, Petera Norviga (DeepMind, Google) oraz Steva Wozniaka (Apple), zmuszają do poważnej refleksji nad rozwojem i konsekwencjami wykorzystywania sztucznej inteligencji. Wspomniany Elon Musk nie tylko podpisał się pod dokumentem, ale przekazał na działania instytutu 10 mln dolarów dotacji. A pod koniec 2015 roku wspólnie z Gregiem Brockamanem i Samem Altmanem powołał do życia charytatywny
10
felieton
mensis.pl
projekt OpenAI, zajmujący się odpowiedzialnym rozwijaniem i promowaniem sztucznej inteligencji, który chcąc uchronić AI przed próbą zmonopolizowania i utajnienia aktualnego stanu badań, wykorzystuje otwarte oprogramowanie bazujące m.in. na systemie Azure Open Source od Microsoft.
,,
Właściciel Tesli Motors i SpaceX, podczas konferencji Code 2016 w kalifornijskim Rancho Palos Verdes, stwierdził że „jeżeli jest jedna bazowa rzeczywistość oraz miliardy symulacji komputerowych, które są jej naturalnym rozwinięciem - symulacji doskonałych, których uczestnicy nie są w stanie się zorientować, że są w symulacji - to szansa na to, że nasze życie rozgrywa się w obrębie tej jednej bazowej rzeczywistości, a nie jest jedną z miliarda symulacji, jest jak jeden do miliardów.” Kilka miesięcy temu na twitterowym koncie Elon Musk napisał: „Mam nadzieję, że nie jesteśmy jedynie biologicznym bootloaderem dla cyfrowej superinteligencji. Niestety, wydaje się to coraz bardziej prawdopodobne.” Przytoczoną wypowiedź można sprowadzić do smutnej refleksji, w której ludzkość jest jedynie pierwszym kodem (bootloaderem) uruchamiającym właściwy system operacyjny, jakim jest sztuczna superinteligencja. Ta mocno przeakcentowana parabola pokazuje jakie konsekwencje mo-
głoby przynieść nieodpowiedzialne kreowanie i niehumanitarne wykorzystywanie AI. Przedstawioną tezę potwierdzają także inne wypowiedzi Muska traktujące niekontrolowaną artificial intelligence jako największe zagrożenie dla ludzkiej egzystencji. Z drugiej strony inni sygnatariusze wspomnianego listu, jak choćby twórca startupu DeepMind Demis Hassabis wypowiadają się na temat sztucznej inteligencji w bardziej przyjazny sposób: „Chcę ją rozwinąć tak, by rozwiązała wszystkie nasze problemy, jak głód, choroby, bezdomność czy globalne ocieplenie. To będzie program Apollo XXI wieku.” Powyższe wypowiedzi wprowadzają sporo zamieszenia w dotarciu do sedna dyskusji nad sztuczną inteligencją, tym bardziej jeżeli zauważymy, że Elon Musk jest jednym z głównych inwestorów w firmie kierowanej przez Demisa Hassabisa. Taki stan rzeczy wynika przede wszystkim z charakteru współczesnej polemiki, szczególnie internetowej, szukającej bardziej sensacji niż zrozumienia, a przez to prowadzonej w systemie binarnym (zero-jedynkowym) z wyraźną potrzebą podziału na zwolenników lub przeciwników AI. W duchu tak prowadzonej konfrontacji wielu e-redaktorów nadinterpretuje, wspomniany na początku artykułu, list otwarty FLI jako protest wobec sztucznej inteligencji, czyniąc jednocześnie jego sygnatariuszy przeciwnikami AI. Tym sposobem najwięksi inżynierowie, znawcy oraz pasjonaci sztucznej inteligencji wydają się być wrogami własnych odkryć, przekonań oraz inwestycji. Podobnie jak Elon Musk i Demis Hassabis , fundatorzy i założyciele wybitnych ośrodków rozwijających sztuczną inteligencję, za sprawą podpisu pod listem FLI, wydają się być przeciwnikami własnych pro-
jektów - z tą niewielką różnicą, że Musk jako sceptyk, a Hassabis jako sympatyk AI. To duże uproszczenia, które odwracają uwagę obserwatorów od pryncypiów tematu, demonizują pojęcie sztucznej inteligencji oraz zachęcają do poszukiwania drugiego dna, zgodnie z zasadą, że jeżeli „coś” jest rozmyte i nie wiadomo o co „w tym” chodzi, to na pewno chodzi o… . Jak zatem powinniśmy postrzegać sztuczną inteligencję? Co wiemy o sztucznej inteligencji dzisiaj, a czym może ona stać się dla nas w przyszłości? Do czego dążą i przed czym ostrzegają wybitni protoplaści AI? Czy „smart” – inteligentny dom, inteligentny telefon, inteligentna odzież – jako jeden z rodzajów sztucznej inteligencji może faktycznie zagrozić rodzajowi ludzkiemu? Zagłębiając się w problematykę AI widać, że materia sztucznej inteligencji jest mocno rozczłonkowana na wiele rozproszonych metod i tyle samo rozproszonych osiągnięć. Jej złożoność trafnie charakteryzuje długoletni rektor AGH, profesor nauk technicznych, a przy tym ceniony automatyk i informatyk Ryszard Tadeusiewicz porównując AI do archipelagu wysp, okruchów wiedzy, stanowiących swoiste indywidua bez logicznego i metodologicznego powiązania między sobą, na bezkresnym oceanie niewiedzy. Potwierdzeniem tej wielowymiarowej koncepcji są liczne definicje uznające za przedmiot artificial intelligence, w zależności od stawianych celów, odpowiednie narzędzia, określone metody albo przewidywane efekty badań. Według Johna Haugelanda sztuczna inteligencja to ekscytujące próby stworzenia myślących komputerów, a dokładnie maszyn z umysłami w pełnym tego słowa znaczeniu.
felieton
Raymond Kurzweil sztuczną inteligencją nazywa dziedzinę badań, które usiłują naśladować ludzką inteligencję w maszynie. A Elaine Rich i Kevin Knight pod pojęciem sztucznej inteligencji rozumieją naukę o czynnościach, które miałyby spowodować, że maszyny będą wykonywać funkcje, które aktualnie lepiej wykonuje człowiek. Tak liczne sposoby podejścia do sztucznej inteligencji związane ze zróżnicowanymi oczekiwaniami człowieka wyodrębniły pojęcie słabej sztucznej inteligencji (weak AI) oraz silnej sztucznej inteligencji (strong AI).
Zwolennicy słabej AI uważają, że człowiek jest w stanie tworzyć systemy zachowujące się podobnie do niego, nawet z wyłączeniem pewnych błędów myślowych, ale wyniki działania tych systemów nie wskazują, w jaki sposób działa ludzki umysł. W tej grupie odnajdziemy wszystkie inteligentne systemy do zarządzania różnymi sferami naszego życia z popularnymi programami antywirusowymi czy prostymi wyszukiwarkami internetowymi. Koronnym przykładem takiego podejścia do AI jest „DeepBlue” superkomputer od IBM, który w 1997 roku pokonał szachowego arcymistrza Garriego Kasparowa. Maszyna do zwycięstwa potrzebowała 32-węzłowego klastra IBM
mensis.pl
RS/6000 SP, mieszczącego po 8 wyspecjalizowanych procesorów szachowych na każdym węźle. Taka kombinacja umożliwiła ocenę około 200 milionów pozycji na sekundę. Inaczej postrzega się silną AI, której działania mają na celu dokładne odwzorowanie ludzkiego umysłu, a każdy ich wynik ma służyć nie tylko tworzeniu myślących systemów, lecz również objaśnieniu sposobu w jaki ogólnie myślą ludzie. Inaczej mówiąc dla każdego zachowania lub akcji jaka wydarzy się w naszym otoczeniu można napisać program, który to zachowanie lub akcję wyjaśni. Na razie nikomu nie udało się stworzyć tak zdefiniowanej inteligencji i dywagacje na temat faktycznych możliwości w tym zakresie ciągle pozostają w sferze teoretycznej. Jednak nie zmienia to faktu, że wiele wybitnych wynalazków z pogranicza silnej AI udało się już zrealizować. W marcu 2016 roku program AlphaGo, rozwijany przez półtora roku w DeepMind pod okiem wspomnianego już Demisa Hassabisa pokonał 33-letniego mistrza świata w tej grze, Koreańczyka Lee Sedola. I chociaż gry uważa się za dziedzinę aktywności, w której maszyny szybko zdobywają przewagę nad człowiekiem przyswajając sobie tetra bajty danych i działając według ścisłych reguł, to jednak AlphaGo musiał wspiąć się na zdecydowanie wyższy poziom umiejętności. Podobnie jak jego starszy brat DeepBlue w szachach, tak Alpha przeanalizował miliony turniejowych partii, z tą różnicą, że podczas zbierania danych, uczył się i eliminował
11
wszelkie bezsensowne posunięcia za sprawą dwóch sieci neuronalnych, które znacząco zmniejszyły drzewo wyszukiwania i pozwoliły na rozumne skorzystanie z zebranych informacji. Kolejnych przykładów takiego rozwoju informatyki, wykorzystującego sieci neuronowe, algorytmy ewolucyjne, systemy ekspertowe, teorię zbiorów rozmytych czy metody grupowania danych, dostarczają nam: superkomputer Watson, inteligentne systemy i chatboty od Microsoft (Cortana), Apple (Siri), Amazon (Aleksa) i Google, dwujęzyczna wyszukiwarka Baidu czy sztuczny inteligentny redaktor WordSmith od Automated Insights.
,,
Kilka miesięcy temu na twitterowym koncie Elon Musk napisał: „Mam nadzieję, że nie jesteśmy jedynie biologicznym bootloaderem dla cyfrowej superinteligencji. Niestety, wydaje się to coraz bardziej prawdopodobne.” Przytoczoną wypowiedź można sprowadzić do smutnej refleksji, w której ludzkość jest jedynie pierwszym kodem (bootloaderem) uruchamiającym właściwy system operacyjny, jakim jest sztuczna superinteligencja. Ta mocno przeakcentowana parabola pokazuje jakie konsekwencje mogłoby przynieść nieodpowiedzialne kreowanie i niehumanitarne wykorzystywanie AI.
12
mensis.pl
Zgodnie z prawem Moore’a stopień złożoności mikroprocesorów, mierzony liczbą tranzystorów wbudowanych w ich strukturę, podwaja się co 18 lub według realniejszych szacunków, co 24 miesiące. Powoduje to lawinowy wzrost pojemności pamięci komputerów, przepustowości sieci telekomunikacyjnych oraz innych parametrów w budowanych systemach informatycznych. Podobny trend można było zaobserwować w programach komputerowych grających w szachy. W latach sześćdziesiątych elo (punktacja siły gry szachisty) najlepszego programu szachowego Chess 3.0 było na poziomie 1500 pkt, a elo arcymistrza Borisa Spassky wynosiło 2480 pkt. Jednak do 1997 roku, kiedy komputer DeepBlue pokonał Kasparova, elo człowieka wzrosło tylko o 300 pkt, a elo maszyny aż o 1200 pkt. Zgodnie z tym przykładem możemy założyć, że wzrost mocy obliczeniowej maszyn oraz intensywności badań w zakresie AI doprowadzą do momentu kiedy sztuczna inteligencja zrówna się z inteligencją człowieka, a następnie przewyższy ją na poziomie jednostki i całego gatunku. Ów przełom nazywany jest osobliwością technologiczną, a duża rzesza naukowców, z Raymondem Kurzweilem (Google) na czele, wylicza ją na 2045 rok. Perspektywa niedalekiej przyszłości z maszynami inteligentniejszymi od człowieka przyprawia o dreszcze głównie za sprawą licznych filmów science fiction (Ex Machina, Her, Terminator) w których AI najczęściej stanowi problem lub zagrożenie dla ludzkości. Warto jednak w tym miejscu przytoczyć słowa profesora Tadeusiewicza, który uważa, że aby inteligentne maszyny podjęły akcję przeciw ludziom muszę mieć cel takiego
felieton
działania, czyli mieć w tym jakiś interes. Żadna maszyna, nawet ta najbardziej inteligentna, nie jest do tego zdolna ponieważ nie posiada jaźni-samoświadomości, czyli poczucia własnego bytu i własnej odrębności od otaczającego świata. Nie ma żadnego mechanizmu, który mógłby maszynom nadawać sens słowu „ja” w ich stosunkach z otaczającym światem, z ludźmi i z innymi maszynami. Co więcej, nie ma żadnych przesłanek do tego, żeby taką sztuczną tożsamość wytworzyć. Słowa tak doświadczonego naukowca w zakresie sztucznej inteligencji dodają otuchy i pozwalają z większym optymizmem popatrzyć w przyszłość. Z drugiej strony skłaniają do refleksji, która często pojawia się w zetknięciu z rzeczywistością nową, nieznaną, a w tym przypadku dodatkowo inteligentną. Otóż największe zagrożenie dla człowieka płynie od niego samego. To nie maszyna będzie chciała zrobić coś źle, ale to człowiek zaprogramuje ją do złych rzeczy lub w złym celu ją wykorzysta. Podobnie jak kamień używany do wskrzeszania ognia stał się w pewnym momencie narzędziem zbrodni. Przywołany dylemat moralny daje o sobie znać w dyskusji nad rozwijaniem autonomicznych systemów LAWS (Lethal Autonomous Weapons Systems), które miałyby samodzielnie podejmować decyzję o pozostawieniu lub likwidacji celów militarnych. Jak większość wynalazków wojskowych, LAWS tworzone są z myślą o obronie, ale autonomia w zakresie pozbawienia życia budzi ogromny niepokój. Dlatego najbardziej palącym problemem wydaje się tworzenie odpowiednich przepisów prawnych regulujących zakres i sposoby wykorzystywania AI. Naukowcy
i przedsiębiorcy swoje zaniepokojenie wyrazili w liście otwartym Future of Life Institute. I choć nie wiadomo czy więcej w tym troski, czy rozgłosu potrzebnego do finansowania badań to jedno jest pewne. Sztuczna inteligencja sama w sobie nie stanowi zagrożenia dla ludzkości, a największą niewiadomą w tej dyskusji pozostaje człowiek.
Arkadiusz Roszak Właściciel marki Minitraper.pl, filozof, podróżnik, bloger,
copywriter i pasjonat zagadnień etycznych w e-commerce.
10 felieton
felieton 13 mensis.pl
2016 rokiem postprawdy. 2017 rokiem kłopotów w biznesie? Część pierwsza Andrzej Lemański
Ten wyjątkowy pod wieloma względami na świecie rok, doczekał się swojego naukowego określenia, jako „rok postprawdy”. Przyczyniła się do tego głównie redakcja renomowanego słownika oksfordzkiego, która wybrała słowo „post-truth”, jako najlepiej opisujące ubiegły rok, który przebiegł pod znakiem wypuszczania kaczek dziennikarskich w mediach społecznościowych. Postprawda to zgodnie z definicją przetłumaczoną przez redakcję Rzeczpospolitej: „słowo odnoszące się do okoliczności, w których obiektywne fakty mają mniejszy wpływ na opinię publiczną niż odwoływanie się do emocji i przekonań odbiorców”. Postprawda była najważniejszym słowem roku 2016 głównie za sprawą dwóch wydarzeń: amerykańskich wyborów prezydenckich i Brexitu. Finał obu tych wydarzeń inspirowany był wieloma nieprawdziwymi informacjami, które obiegły wielokrotnie świat, zanim przysłowiowa prawda nałożyła buty. Co zaskakujące, tak dobry zazwyczaj w budowaniu PR-u biznes kompletnie nie poradził sobie z sytuacją Brexitu. Społeczeństwo Wielkiej Brytanii nie usłyszało głosu rozsądnych przedsiębiorców działających w Europie, a jedynie rozkrzyczane brukowce, które wyciągały coraz to bardziej sensacyjne „prawdy” o tym, jak wielką kotwicą w budowaniu potęgi Wielkiej Brytanii jest Unia Europejska. Można by tutaj przytaczać przykłady, ale nie ma takiej potrzeby. Jakie są tego efekty, widać po kursie brytyjskiego funta i pogarszającej się dosłownie z miesiąca na miesiąc sytuacji gospodarczej Wielkiej Brytanii oraz zbliżającej się wielkimi krokami totalnej destabilizacji
politycznej. Brytyjczycy wciąż nie wiedzą, kto, kiedy, a co najważniejsze, w jaki sposób „wyprowadzi” ich z Unii Europejskiej, ponieważ zwolennicy wyjścia, jak sami przyznali, nie byli na nie nawet w najmniejszym stopniu przygotowani. Po prostu, jak przyznał jeden z ich liderów, Boris Johnson, brexitowcy liczyli na zbicie porządnego kapitału politycznego przed kolejnymi wyborami. A tu klops. Jak mawia mądre powiedzenie: uważaj czego sobie życzysz, bo może się spełnić. Po tym właśnie poznajemy postprawdę. Prawdą jest to, co dzieje się po niej, a nie to co zostało zawarte w samym „postprawdziwym” komunikacie. Prawda pojawia się jako konsekwencja czynów podejmowanych na podstawie faktów „postprawdziwych”. Czy postprawda jest więc po prostu nieprawdą? To coś dużo większego, o ile spojrzymy na społeczne i ekonomiczne korzenie tego zjawiska. „Post-truth politics” to pojęcie, które pojawiło się po raz pierwszy w obiegu w roku 1992. Użył go Steve Tesich w nawianiu do polityki amerykańskiej dotyczącej Bliskiego Wschodu, a także afery Watergate. „Post-truth politics” ma także swoje konceptualne źródła w pozycji „Post-truth Era”, autorstwa Ralpha Keyesa. Także w tym samym roku Colin Crouch opublikował głośną książkę „Post-democracy”. Swój renesans pojęcie „postprawdy” przeżywa od roku 2010, kiedy to użył go David Roberts, dziennikarz poczytnego w pewnych kręgach magazynu Grist. Zdecydował się przy tym dość precyzyjnie je zdefiniować jako: „kultura polityczna w ramach której uczestnicy (politycy, opinia publiczna, media) stają się prawie
14
mensis.pl
całkowicie odcięci od ustawodawstwa”. Innymi słowy, chodzi tu o całkowity brak odpowiedzialności za głoszone „fakty”, „tezy”, które nijak mają się do rzeczywistości, zgodnie z którą państwo powinno podejmować działania prawne. Częściej dochodzi do sytuacji dorabiania faktów i tez do aktualnie podejmowanych działań, podobnie jak to miało miejsce w powieści George’a Orwella, gdzie państwo totalitarne każdego dnia wymazywało i poprawiało dane w rejestrach, tak aby dopasować je do celów propagandowych. Wszystko to prowadzi nas do dwóch wcześniej wspomnianych zdarzeń które zaskoczyły wszystkich w 2016 roku: Brexitu oraz wyniku wyborów prezydenckich w USA. Faktów, których zajście udało się z powodu wyprodukowania przez uczestników życia publicznego olbrzymiej ilości fikcyjnych informacji. Kłamstwa te łączono w większą całość mieszając z prawdziwymi zdarzeniami, tak aby uzyskać określony efekt psychologiczny. Mówiliśmy już o tym w kontekście Brexitu, który w roku 2017 odbije się mocną czkawką na wszystkich europejskich gospodarkach, w myśl obranego w tym tekście tytułu: postprawda w polityce 2016 oznacza kłopoty w gospodarce 2017. Z kolei wyniki wyborów w USA już w 2016 roku spowodowały niemałe problemy największych amerykańskich (i nie tylko amerykańskich) koncernów. Okazało się, że w przeciwieństwie do „brexitowców”, Donald Trump jest święcie przekonany, o tym, że jego postprawda jest „najprawdziwszą prawdą”. Dlatego zabrał się do roboty od razu po wstępnym ogłoszeniu wyników wyborów. Dotychczas prezydenci USA korzystali z dwóch najważniejszych narzędzi, czyli swojego gabinetu oraz kongresu (white house oraz house). Donald Trump wybrał sobie nowe - Twitter. Jak zauważył złośliwie znany i ceniony ekonomista, Paul Krugman, żaden dotychczasowy prezydent Stanów Zjednoczonych nie prowadził swojej polityki gospodarczej za pomocą Ćwierkacza. Znak czasów? Jakby nie było, Trump zdążył zagrozić obłożeniem cłami lub podatkami, ewentualnie stwierdzić, że obetnie finansowanie rządowe co najmniej następującym firmom: Boeing, Lockheed Martin, Ford, Amazon, Toyota, General Motors, United Technologies. A to wszystko w dwa miesiące od momentu ogłoszenia wstępnych wyników wyborów. Pojęcie cyber bullingu (internetowego zastraszania, poniżania swojej ofiary) zyskało zupełnie nowy wymiar i trzeba do dotychczasowej definicji dopisać nowy wariant: social media
felieton
economic bulling i wprowadzić do mainstreamu. Albo trzeba przyznać, że nowo wybrany prezydent USA zmierza na margines, na który wywiozą go, wcześniej lub później, amerykańskie elity z jego własnej partii. Pierwsze skutki opowiadania „bajek” przez Trumpa są już widoczne. Większość wyżej wymienionych koncernów zanotowała gwałtowne spadki kursów giełdowych, niektóre sięgnęły nawet 5 procent. W tym czasie Ford uległ szantażowi Trumpa i pozostawił w Michigan 700 miejsc pracy, które początkowo miały zostać przeniesione do Meksyku. No dobrze, ale gdzie tu postprawda? Wszak działania Trumpa wydają się układać w logiczną całość, może niezbyt popularną politycznie, ale być może skuteczną i trafiającą w potrzeby gospodarki amerykańskiej. W tym wypadku postprawda to półprawda. Otwarta (na tle działań Trumpa) polityka administracji Obamy przynosiła Ameryce nawet 180.000 miejsc pracy miesięcznie, zaś spadek bezrobocia postępował nieprzerwanie przez ostatnie 75 miesięcy z rzędu. Ale nie przyniosła tak spektakularnych decyzji jak zmiana decyzji koncernu pod medialnym naciskiem prezydenta. To wygląda dużo bardziej skutecznie i lepiej działa na emocje.
Andrzej Lemański Specjalista ds marketingu internetowego i public relations. Zastępca redaktora naczelnego Mensis.pl. Profil na Twitterze @ AndrzejLemansky
16
rynek
mensis.pl
Relacje na żywo
– jak wykorzystać je w e-commerce? Łukasz Wołek
Twórcy portali społecznościowych nie ustają w dodawaniu nowych opcji oraz ulepszeń. Dają coraz więcej możliwości użytkownikom, a ci odwdzięczają się im coraz dłuższym czasem spędzanym na stronach. Oprócz dodawania zdjęć, dzielenia się swoimi odczuciami i nawiązywania kontaktów ze znajomymi, można teraz również transmitować na żywo własne filmy. Jak wykorzystać to do działań biznesowych?
YouTube Live - niewykorzystany potencjał? Odkąd YouTube w 2011 roku zaczął nadawać transmisje na żywo było pewne, że ta funkcja rozpowszechni się na inne portale. Choć światowy gigant początkowo “przespał” swoją szansę na stanie się liderem transmisji live, to pod wpływem konkurencji - a szczególnie Facebooka - zaczął szybko poprawiać funkcjonalność swojej opcji. Nadawanie na YouTube filmów jest bardzo proste - wystarczy kilka kliknięć, nadanie chwytliwego tytułu i nasi subskrybenci dostają informację o rozpoczęciu transmisji. Po jej zakończeniu film można opublikować w serwisie, aby każdy, kto go przegapił, mógł nadrobić straty. Serwis daje także możliwość komentowania nagrań. Co ciekawe od 2016 roku można na YouTube oglądać filmy na żywo z perspektywy 360 stopni. Choć zostało to entuzjastycz-
nie przyjęte przez użytkowników, to ze względu na duże wymagania technologiczne, zapewne niewiele osób będzie z tego faktycznie korzystać. Problemem jest zakup kamery sferycznej, a dokładnie - jej cena. Niemniej jednak jest to ciekawy sposób na urozmaicenie relacji oraz na dostarczeniu użytkownikowi jeszcze większych wrażeń. Dużym plusem YT w stosunku do innych portali jest to, że dzięki programowi partnerskiemu na relacjach live można zarobić. Do witryny przyciąga także możliwość znalezienia ciekawych transmisji nawet wtedy, gdy kogoś nie subskrybujemy – wszystko dzięki odpowiedniej zakładce.
Twitter i koniec Periscope? Poprzedni rok obfitował w wydarzenia związane z relacjami live. Użytkownicy Twittera jeszcze do niedawna używali Periscope (za którą de facto Twitter
mensis.pl
rynek
zapłacił około 100 mln dolarów), aby zrelacjonować wydarzenie na żywo. Odbywało się to za pomocą dodatkowej aplikacji, która umożliwiała udostępnienie transmisji. Teraz jest to jeszcze prostsze - można to robić bezpośrednio z Twittera. Ta funkcja pojawiła się po aktualizacji do wersji 6.2.60. Tworząc nową wiadomość zobaczymy tam specjalną ikonkę, dzięki której rozpoczniemy nadawanie. Podobnie jak i w innych serwisach, możliwe będzie komentowanie wydarzeń. Ze względu na to, że Twitter jest lubianym portalem przez ludzi związanych z biznesem, mediami czy polityką, trafia w bardzo określoną grupę. Często marki są obserwowane przez osoby, które chcą zdobyć konkretną wiedzę - dlatego też ten serwis może służyć do przeprowadzania interesujących wywiadów.
Facebook Live – sposób na większe zasięgi? Możliwość transmitowania na żywo została entuzjastycznie przyjęta przez indywidualnych użytkowników, jak również przez osoby, które zajmują się social mediami w firmach. Relacje live to świetny sposób na dotarcie do fanów – mają większe zasięgi (wyświetlają się zawsze na górze news feeda) oraz są bardziej angażujące. Taki film to także dobra forma sprzedaży – dzięki różnym testom, audycjom czy wywiadom można zainteresować użytkownika swoim produktem w taki sposób, aby chciał go kupić, a przynajmniej dowiedzieć się na jego temat coś więcej. Dobrą praktyką Facebooka jest to, że pozwala on na pozostawienie filmiku na osi czasu – dzięki temu wiele osób może zobaczyć nasze nagranie później, jeżeli nie były w stanie zrobić tego w czasie rzeczywistym.
Głosowanie reakcjami - robić czy nie? Wraz z pojawieniem się relacji live na Facebooku popularność zyskały głosowania za pomocą przycisków reakcji, które już od dawna były wyczekiwane przez użytkowników Facebooka. Wzbudziły one różne reakcje marketerów. Jedni uważają, że jest to dobry sposób na zaangażowanie fanów oraz wchodzenie z nimi w interakcje, drudzy natomiast są zdecydowanymi przeciwnikami łączenia tych dwóch funkcji. Warto zdać sobie sprawę z tego, że agencje obsługujące profile marek na Facebooku połączyły je z dwóch powodów. Pierwszy z nich to zwiększone zasięgi – zarówno post z większą ilością reakcji, jak i relacja live, są wyżej pozycjonowana w feedzie. Drugi powód dotyczy użytkowników portalu – połączenie tych dwóch narzędzi jest niezwykle atrakcyjne dla nich. To spowo-
17
dowało, że na początku wiele marek, zorganizowało na swoich profilach głosowania. Zasięgi skoczyły w górę, a fani chętnie angażowali się. A co na to sam Facebook? W jego regulaminie nie znajdziemy wyraźnego zapisu, że głosowania live są zabronione. Jednak w rekomendacjach do ikon reakcji po jakimś czasie pojawił się zapis, że używanie ich w celu zbierania głosów nie jest polecane przez portal.
Instagram – Go Insta! Instagram nie pozostaje daleko w tyle za Facebookiem jeżeli chodzi o relacje live. Niebawem wprowadzi transmisje na żywo do coraz większej ilości krajów. Na razie głównym odbiorcą są Stany Zjednoczone. Nowa funkcja będzie pozwalała na kręcenie filmów nawet do sześćdziesięciu minut. Przez to, że Instagram jest przeznaczony dla użytkowników smartfonów, to będą oni mogli w każdej chwili przesłać interesujący materiał osobom, które ich śledzą. Każdy będzie mógł samodzielnie ustawić czy chce komentarzy pojawiających się podczas trwania filmików, czy woli z nich zrezygnować. Będzie mógł także reagować na wpisy innych użytkowników. Na pewno dużym plusem będą powiadomienia o transmisji – dzięki temu żaden użytkownik nie przegapi momentu rozpoczęcia filmu. A jeżeli go nie zobaczy to będzie musiał obejść się smakiem – nie będzie możliwości, żeby go zapisać.
4 aspekty transmisji na żywo, o których musisz pamiętać Aby relacja live przyciągała użytkowników i żeby stawali się oni lojalnymi fanami marki, musi być wykonana w wysokiej jakości. Mowa tu nie tylko o wrażeniach wizualnych – poniżej prezentujemy kilka rad, które na pewno pomogą wzbogacić tego typu transmisje.
1. Interesujący content Zawartość filmiku musisz dopasować do swojej grupy odbiorców. Są filmy, które już po kilkudziesięciu sekundach są wyłączane, są takie, które trwają przeszło godzinę. Ciekawym pomysłem wykazał się sklep internetowy ASOS – transmitował on film, w ciągu którego pracownice firmy miały w pół godziny nałożyć 100 warstw ubrań na modelkę. Zmagania śledziło około 63 tysięcy użytkowników, którzy dopingowali markę. Zawsze dobrze jest też niekonwencjonalnie podejść do tematu. Zastanów się co będzie atrakcyjne dla widza: relacja z targów, rozdania nagród czy może prezentacja produktu w inny sposób niż zazwy-
18
mensis.pl
czaj? Dużą popularnością cieszą się te filmy, w których na żywo pokazuje się jak wygląda produkcja towaru czy życie wewnątrz firmy – spotkania poza pracą, obchody urodzin marki itp.
2. Angażuj internautów Komunikuj się z widzami – komentarze pisane w czasie rzeczywistym to jedna z najlepszych rzeczy, jaka może się wydarzyć przy transmisjach live. Wykorzystuje je wiele znanych osób, aby fani mogli im zadać pytania. Dzięki temu są bardzo autentyczni – internauci potrafią dopiec z pytaniami – zwłaszcza, że niektórych z nich nie da się przewidzieć. To bardzo stymuluje, szczególnie młodych ludzi, którzy widzą, że ich idol mimo, że jest znany to jest też zazwyczaj zwykłym, prostym człowiekiem. Pytania zadawane w komentarzach w czasie rzeczywistym w sposób ciekawy wykorzystał ostatnio jeden z youtuberów, który postanowił na żywo roztopić dużą, lodową rzeźbę. Fani mieli mu podpowiadać, jakich metod powinien użyć. Jedną z nich był niebanalny krok taneczny – może lodu on nie roztopił, ale na pewno było ciekawie. Dobrym przykładem na wykorzystanie transmisji w e-commerce jest angielski sklep The Funky Fairy, który zrobił wyprzedaż produktów za pomocą filmu live. Pierwsza edycja cieszyła się tak dużą popularnością, że konieczne było zorganizowanie dwóch dodatkowych (przyciągnęły one od 7000 do 10000 osób). Sukces był spowodowany natychmiastowymi reakcjami marki na komentarze dotyczące zakupu danej rzeczy oraz sposobem prezentacji produktu.
3. Wysoka jakość to podstawa Mówi się, że pierwsze wrażenie jest bardzo ważne. Jednak w przypadku transmisji live o twoim sukcesie zadecydują wszystkie sekundy filmu, bowiem nigdy nie wiesz kiedy użytkownicy zaczną oglądać relację. Internauci zwrócą uwagę na przygotowanie merytoryczne oraz dobór tematu. Należy też zadbać o sprzęt, którym transmitujemy. Im lepsza jakość obrazu i dźwięku, tym większe szanse na powodzenie. Miejsce, w którym nagrywamy, musi nam pozwolić na spokojne wyrażanie się i powinno być wolne od zakłóceń. Ważna jest też szybkość łącza – zacinający się filmik spowoduje, że nawet najwierniejsi fani szybko go wyłączą.
4. Przestrzegaj prawa Rób to zgodnie z prawem – jakiś czas temu w mediach pojawiła się wiadomość, że stacja telewizyjna Polsat
rynek
została okradziona, bo użytkownik transmitował walki KSW na Facebooku za pomocą transmisji live. Straty poniesione przez telewizję sięgały 8 milionów złotych, a użytkowników oglądających transmisję było około 200 tysięcy. Sprawa prawdopodobnie skończy się w sądzie. Jeżeli chcesz transmitować rozdanie nagród, na których twoja firma zajęła czołowe miejsce, to warto poprosić organizatora o zgodę – większość z nich na pewno ją wyrazi, a ty pokażesz użytkownikom jedne z fajniejszych momentów dla marki. Zastosowanie relacji na żywo w działaniach marki może przynieść tak samo dużo korzyści jak i minusów – wszystko zależy od tego w jaki sposób je wykorzystujemy, do kogo kierujemy oraz co transmitujemy. Każda relacja to sporo wysiłku i przygotowań – zwłaszcza, jeśli chcemy ją przeprowadzić na najwyższym poziomie. Nie ulega jednak wątpliwości, że niesie ona za sobą bardzo wiele możliwości – również w e-commerce – szczególnie pod kątem wzrostu rozpoznawalności marki czy możliwości pokazania swojej tożsamości.
Łukasz Wołek Założyciel i CEO agencji Eura7 i Abanana. Z branżą internetową związany od 17 lat. Pracował dla takich marek jak IKEA, Remington, Russell Hobbs, Hugo Boss, Pizza Portal, Beskidzkie, Marwit, Malma, Alma, Gellwe, Góralki, Verbena, Vistula, KOŁO, Cersanit, Opoczno, Oknoplast. Realizował projekty dla centrów handlowo-usługowych spółek Echo Investment, Trigranit i Klepierre. Pomysłodawca i organizator cyklu konferencji i szkoleń Internet ASAP. Wizjoner biznesowy, współtwórca aplikacji Hashlovers i Bungabo. Prywatnie mąż i ojciec piątki dzieci. Sezonowy spinningista i muszkarz.
rynek
mensis.pl
19
Chcąc konkurować ze sklepami tradycyjnymi, branża e-commerce powinna poprawić politykę informacyjną dotyczącą zwrotów Polacy bardzo rzadko zwracają zakupione towary, ale wybierają sklepy, które wyraźnie komunikują taką możliwość i stosują liberalną politykę w tym zakresie – wynika z badania kancelarii prawniczej Deloitte Legal. Co trzeci ankietowany wskazał, że podczas zakupów bierze pod uwagę politykę zwrotów stosowaną przez dany sklep. Z kolei co czwarty badany przynajmniej raz miał problem ze zwrotem lub wymianą towaru.
Dla sektora handlowego święta oznaczają szczyt sezonu zakupowego. W tym czasie szczególnie łatwo o impulsywne i nieprzemyślane zakupy. Co w przypadku, gdy
dostaliśmy nietrafiony prezent? Czy podczas zakupu upominków, zwracamy uwagę na takie aspekty jak możliwość jego zwrotu czy wymiany?
Jak wynika z badania Deloitte Legal, co trzeci Polak deklaruje, że podczas zakupów bierze pod uwagę politykę zwrotów stosowaną przez dany sklep. W porównaniu
20
mensis.pl
do konsumentów z krajów Europy Zachodniej w tej kwestii wypadamy gorzej. Jednak biorąc pod uwagę fakt, że Polacy wciąż mają zbyt małą świadomość swoich praw, taki odsetek odpowiedzi wydaje się zadowalający. Polityka danego sklepu wobec zwrotów jest nieco bardziej istotna dla kobiet niż mężczyzn. Jak pokazało badanie, na ten aspekt zwracają szczególnie uwagę osoby młodsze – w przedziałach wiekowych od 25 do 34 i od 35 do 44 lat (odpowiednio 43 proc. i 41 proc), najmniej ważne jest to dla osób pomiędzy 55 a 64 rokiem życia (13 proc.). Aż 84 proc. respondentów nie zdarzyło się zwrócić prezentu. Może to być konsekwencja tego, że zwrot zakupionego towaru najczęściej kojarzy się z uciążliwymi procedurami i krótkimi terminami. – mówi Katarzyna Karasiewicz, radca prawny i partner w Deloitte Legal. Natomiast, zaledwie 16 proc. Polaków zdarzyło się oddać prezent, który otrzymali. Z prawa zwrotu korzystają głównie osoby młodsze, najczęściej w przedziałach wiekowych 18-24 i 25-34 lat (odpowiednio 21 proc. i 24 proc.). Najrzadziej natomiast osoby powyżej 55 roku życia (8 proc.). Widać tutaj konsekwencję – młodsze osoby robiąc zakupy częściej zwracają uwagę na politykę zwrotów i częściej korzystają z tego prawa. Pokazuje to, że czym większy poziom wiedzy konsumentów na temat ich uprawnień – tym częściej z nich korzystają – dodaje Katarzyna Karasiewicz. Jak pokazało badanie Deloitte Legal, dochód netto i miejsce zamieszkania również mają wpływ na decyzje odnośnie do zwrotu prezentu – żadna z osób, które zadeklarowały, że zarabiają 4 tys. zł netto i więcej nie zwróciła upominku, czę-
rynek
ściej robią to natomiast mieszkańcy dużych miast i metropolii (po 24 proc.) niż wsi (7 proc.). Aż co czwarty badany napotkał trudności ze strony sklepu w przypadku zwrotu lub wymiany towaru. Co ciekawe, częściej spotykało to mężczyzn niż kobiety. Według badania Deloitte Legal najbardziej zachęcającym czynnikiem do zakupów w danym sklepie jest dłuższy czas na dokonanie ewentualnego zwrotu niechcianego towaru – odpowiedziało tak aż 43 proc. respondentów. Natomiast najmniej ważny jest dla konsumentów brak konieczności posiadania paragonu, by zwrócić dany produkt. Online czy offline? Jak pokazało badanie Deloitte „Zakupy Świąteczne 2016”, respondenci aż 37 proc. budżetu przeznaczonego na prezenty pozostawili w sklepach internetowych, a ponad jedna trzecia respondentów nie planowała w ogóle ich kupować w sklepach tradycyjnych. Z wyników badania Deloitte można wnioskować, że konsumenci utożsamiają sklepy stacjonarne z łatwym zwrotem towaru. 75 proc. respondentów wskazało, że wybierają je ze względu na możliwość szybkiej wymiany i zwrotu produktów. Do zakupów tradycyjnych respondentów przekonuje również możliwość skorzystania z fachowej porady, natychmiastowość otrzymanego produktu oraz ochrona danych osobowych (78 proc.). Z kolei za największą zaletę zakupów online uważamy dowolność pory, w której możemy je robić (79 proc.), jak również dostawę do domu (75 proc.).
Widać wyraźnie, że jeżeli sklepy internetowe chcą konkurować ze sklepami stacjonarnymi, muszą towarzyszyć konsumentowi w toku całej ścieżki zakupowej – również tej dotyczącej polityki informacyjnej, w tym wypadku dotyczącej zwrotów. Brak znajomość praw jakie przysługują konsumentowi w związku z daną transakcją oraz brak obaw dotyczących uciążliwości procedur, odgrywają znaczącą rolę podczas podejmowania decyzji o zakupie – mówi Katarzyna Karasiewicz. Świadomość o możliwości zwrotu towaru wpływa na decyzje zakupowe Wyniki badania Deloitte Legal oraz plany Komisji Europejskiej w zakresie reformy prawa konsumenckiego, dotyczące m.in. regulaminów sklepów internetowych, potwierdzają, że konsumenci nie poświęcają zbyt wiele czasu i uwagi, by zaznajomić się ze swoimi uprawnieniami i zasadami korzystania z nich, w tym z zasadami zwrotu towarów. Brak znajomości uprawnień przekłada się na posługiwanie się przez konsumentów schematami myślowymi, gdzie korzystanie ze swoich przywilejów jest równoznaczne z wysiłkiem, problemami i kosztami. Udostępnienie konsumentom krótkiej i prostej informacji o ich prawach, której lektura nie będzie stanowiła bariery psychologicznej może wpłynąć na zmniejszenie oporu konsumentów przy podejmowaniu decyzji o zakupie towaru w danym sklepie. To może być szczególnie istotne dla sklepów internetowych, wśród których widzimy ogromną konkurencję. – zaznacza Katarzyna Karasiewicz. Często, myśląc o zwrotach produktów, konsumenci przenoszą swoje doświadczenia związane z oddawaniem przedmiotów wadli-
rynek
wych reklamowanych w ramach rękojmi, na kwestie zwrotów dokonywanych w związku z uprawnieniem przyznanym dobrowolnie przez sprzedawcę. Nawet w przypadku zwrotu towarów wadliwych, konsumenci rzadko kiedy rozróżniają procedurę reklamacji na podstawie gwarancji lub rękojmi, a co za tym idzie, kojarzy im się to z czymś trudnym i czasochłonnym, więc nie korzystają często z prawa zwrotu czy wymiany produktów uszkodzonych. W przypadku towarów, które nie są wadliwe, polscy konsumenci wciąż uznają prawo zwrotu - przyznane dobrowolnie przez sprzedawcę - za rzadko spotykane udogodnienie – stwierdza Katarzyna Karasiewicz. O tym, że polscy konsumenci doceniają liberalną politykę zwrotów, szczególnie jeśli koszty zwrotów towaru są niewielkie lub wręcz pokrywane przez samego przedsiębiorcę, świadczą bardzo dobre wyniki niektórych graczy na rynku sklepów internetowych oferujących obuwie i odzież.
mensis.pl
Komisja Europejska ułatwia e-zakupy W najbliższych miesiącach Komisja Europejska powinna przedstawić zapowiadany już rewolucyjny plan zmiany regulacji konsumenckich, w szczególności dotyczących działalności sklepów internetowych. Jednocześnie Komisja Europejska dąży do zniesienia tak zwanego blokowania geograficznego. Wejście w życie rozporządzenia dotyczącego geoblokad oraz potwierdzenie kierunku zmian w zakresie regulaminów sklepów internetowych powinno znacząco wpłynąć nie tylko na upowszechnienie dostępności produktów oferowanych przez sklepy internetowe, na ich ceny, ale też na otwartość konsumentów na korzystanie z usług zagranicznych sprzedawców internetowych. Z badania Komisji Europejskiej dotyczącego ograniczeń terytorialnych i blokowania geograficznego na rynku unijnym z 2016 r.
21
wynika, że jedynie 15 proc. konsumentów w Unii dokonuje zakupów online od sprzedawców z zagranicy. Dane pokazują też, że aż 63 proc. sklepów internetowych stosuje blokady geograficzne, natomiast w przypadku sprzedawców z państw, które weszły do Unii Europejskiej po 2004 roku, ten odsetek wynosi aż 84 proc. Dotyczy to większości w/w państw, tj. Czech, Słowacji, Węgier, Słowenii, Litwy, Łotwy, Estonii, Bułgarii, Rumunii, Chorwacji oraz Polski.
16 18
rynek rynek
mensis.pl mensis.pl
Drony – humbug, pieśń przyszłości czy nieubłagana technologia jutra?
Andrzej Lemański
Drony to temat, który od dobrych trzech lat nie schodzi z ust całego świata. Gdyby rozwój technologii dronów posuwał się wprost proporcjonalnie do ilości napisanych o niej znaków, to żylibyśmy dziś w świecie wypełnionym autonomicznym pojazdami: jeżdżącymi, latającymi, pływającymi. Jak wiadomo, nic takiego się nie wydarzyło. Chociaż już w 2014 roku Business Insider stwierdził, że chociaż dotychczas rewolucja dronów kończyła się na wojskowych zastosowaniach to od 2015 roku świat zacznie zmieniać się za sprawą gwałtownego wzrostu cywilnych urządzeń. Zaś do 2022 roku rynek dronów będzie wart 100 miliardów dolarów. Na usprawiedliwienie amerykańskiego raportu trzeba dodać, że tylko 12 procent całego rynku dronów miałoby obejmować cywilne zastosowania. Reszta to zastosowania wojskowe, profesjonalne np. dla firm ochroniarskich, oraz obejmujące inne służby państwowe, pracujące w mundurach lub nie. O tym, że na temacie dronów można sobie połamać zęby dowodzi przykład Google’a, który przejął Titan Aerospace. Po 2 latach od przejęcia najważniejszy projekt Titan Aerospace, czyli dron Solara 50 nadal nie wzbił się w powietrze, zaś testy zapowiadane na lato 2016 nie doszły do skutku. O kolejnych już nie słychać. Cel był
szczytny i przełomowy – za pomocą sieci dronów napędzanych energią słoneczną rozsiewać sygnał LTE nad obszarami, gdzie nie opłaca się budować stałej sieci telekomunikacyjnej. Być może tego typu uparcie przełomowe projekty są największą kulą u nogi w faktycznym rozwoju dronów. Większość firm upatruje w autonomicznych pojazdach fundamentalnego rozwiązania, które miałoby odmienić świat jaki znamy. A jak wiadomo, skuteczna innowacja musi łączyć w sobie kilka elementów: dopracowanie produktu, szeroką akceptacją społeczną i prawną, niski jednostkowy koszt nabycia, architekturę zdolną do przyjęcia innowacji, powszechność użycia no i najważniejsze – musi zaspokajać ważną potrzebę, która do tej pory albo nie była zaspokojona, albo zaspokajano ją wyraźnie gorzej.
odkurzacze nie są w stanie wyprzeć klasycznych produktów. Nie ma więc jak na razie mowy o tzw innowacji destruktywnej (disruptive innovation). O czym więc możemy mówić? O wprowadzanych w życie eksperymentach beta. Najbardziej zaawansowany z nich z punktu widzenia przydatności dla handlu internetowego od połowy grudnia 2016 roku prowadzi Amazon w ramach programu Prime Air.
Testy odbywają się na terenach ruralistycznych hrabstwa Cambridge w Wielkiej Brytanii. Historia wprowadzenia dronów do beta-komercyjnego użytku w handlu internetowym przez Amazona zamknęła się w okresie 3 lat. Dokładnie 1 grudnia 2013 roku Jeff Bezos zapowiedział wprowadzenie tej usługi do środków transportu oferowanych przez Amazona. Zasięg drona określono na nie większy niż 10 mil, czyli około 16 kilometrów, co w połączeniu z zastosowaniem Czy istnieją na rynku drony speł- go w terenie mało zamieszkałym niające te warunki? Nawet tak pro- jest klarowną informacją, że albo ste urządzenia, jak autonomiczne program nigdy nie będzie znaczącą
rynek rynek
alternatywą dla usług kurierskich, albo Amazon planuje pokryć interesujące go terytoria znacząco gęstszą siecią magazynów. Jak na razie widać przesłanki ku drugiej opcji, biorąc pod uwagę, że w życie wprowadzana jest amazonowska sieć marketów spożywczych GO. Nie sposób jednak przy tym pominąć faktu, że będą one zlokalizowane w centrach miast, gdzie nie będzie nigdy (lub w najbliższej przyszłości) zgody na korzystanie z komercyjnych lotów bezzałogowców. Nie można przy tym zapomnieć, że pierwszym testerem była firma DHL Logistics. Miejscem testów była niemiecka wyspa Juist, gdzie firma przeprowadziła szereg testów na odcinku 12 kilometrów. Wstępne parametry jakie wtedy ustalił DHL nie zmieniły się do czasu beta testów Amazona: waga drona nie większa niż 5 kilogramów, zasięg nie większy niż kilkanaście kilometrów, waga przesyłki około 1 kilograma, czas lotu nie dłuższy niż 30 minut. Takie są realne możliwości operacyjne dzisiejszych dronów transportowych.
mensis.pl mensis.pl
stawić odbiorcy przesyłkę. Zrzucanie przesyłek na głowy przechodniów lub domowników nie jest opcją braną pod uwagę. A to z kolei oznacza, że operatorzy budynków wielorodzinnych musieliby wyznaczyć uniwersalną strefę lądowania, podobnie jak wiesza się na klatkach schodowych boksy pocztowe dla każdego mieszkania. Z tym, że nie sposób stworzyć lądowiska dla każdego mieszkania w bloku, stąd mieszkańcy musieliby dzielić się wspólnym, a to rodzi pytanie: co jeśli ktoś inny zamiast adresata odbierze przesyłkę pozostawioną na lądowisku? Opcja to zainstalowanie skrzynki zamykanej na cyfrowy kod, w której dron zostawiałby przesyłkę. Ale to drogie i skomplikowane.
Tu rodzi się pytanie: po co komu te wszystkie problemy, kiedy mamy bardzo sprawnie działający system doręczeń pocztowych i kurierskich, zdolny do doręczenia przesyłek nawet w trybie „same day” między miastami tego samego kraju? Zamiana aktualnego systemu na nowy, oparty o drony pociągnęłaby za sobą kosztowną i niepotrzebną nikomu rewolucję, która z punktu To parametry w zupełności wy- widzenia końcowego odbiorcy nie starczające dla komercyjnego zmieniłaby prawie nic. użytku, ale największe problemy rodzi infrastruktura. Po pierwsze, Czy to oznacza, że drony nigdy konieczne jest wytyczenie ko- nie wejdą do masowego użytku? mercyjnych dróg powietrznych dla Zdecydowanie nie. Już dziś Waldronów oraz wspólnych systemów -Mart z powodzeniem korzysta komunikacji między urządzeniami z nich w swoich magazynach, oraz ich operatorami. Do tej pory w celu inwentaryzacji towaru. Fruwszystkie wysiłki skupiały się na wająca maszyna skanująca kody wdrożeniu autonomicznych urzą- kreskowe oznacza rezygnację z kodzeń do sposobu pracy organizacji, nieczności zdejmowania towarów tak aby lepiej realizować cel np. do- z półek lub posyłania na kilkumeręczenie przesyłki. Nikt nie myślał trowe konstrukcje człowieka. A to o tym, co będzie, gdy dwa drony tańsze, szybsze i bezpieczniejsze. spotkają się w powietrzu. Używanie dronów w magazynach Amazona to temat znany każdemu Po drugie, niezbędna jest infra- w branży e-commerce. struktura u samego odbiorcy. Dron musi mieć gdzie wylądować i zo-
17 23
A co jeśli Elon Musk wyprzedzi wszystkich i nasze miasta spowije sieć Hyperloop, zaś każdy z nas będzie wolał polecieć w ciśnieniowej rurze aby odebrać osobiście zakupy zrobione przez Internet? Brzmi jak bełkot pijanego naukowca? Posłużmy się przykładem. W 1990 roku stan Kalifornia próbował wymusić na producentach aut produkcję auta elektrycznego. 9 lat prób zakończyło się fiaskiem, pomimo tego, że w technologię zainwestowały firmy takie jak: Chrysler, Ford, General Motors, Honda, Nissan i Toyota. Innymi słowy, koncerny, których zyski przekraczały kilkadziesiąt miliardów dolarów rocznie. Założona w 2003 roku Tesla Motors wypuściła na rynek komercyjny samochód elektryczny w ciągu 5 lat. W 2016 roku Tesla zaliczyła sprzedaż na poziomie całkowitym blisko 200.000 aut. Wtedy to Nissan ogłosił, że tylko model Leaf sprzedał się w podobnym nakładzie w ciągu 5 ostatnich lat. Chwilę później Tesla ogłosiła, że zapisy na nowy Model 3 przekroczyły liczbę 325 tysięcy. W dniu pisania tego artykułu Elon Musk ogłosił start praktycznych testów Hyperloop w pełnej skali. Nigdy nie mów nigdy.
Andrzej Lemański Specjalista ds marketingu internetowego i public relations. Zastępca redaktora naczelnego Mensis.pl. Profil na Twitterze @AndrzejLemansky
mensis.pl
strategie
5
trendów, które zdominują IT w 2017
39
Karol Przybyszewski
Branża technologii informacyjnych z roku na rok zmienia się bardzo dynamicznie. Firmy muszą na bieżąco reagować na potrzeby rynku i swoich klientów. Zdaniem managerów białostockich spółek IT w obecnym roku największy wpływ na branżę IT będzie miał m.in. rozwój wirtualnej i rozszerzonej rzeczywistości, uczenie maszynowe, Internet rzeczy, cyberbezpieczeństwo oraz nearshoring.
mensis.pl mensis.pl
rynek
1
Virtual Reality i Augmented Reality
Rzeczywistość wirtualna, która pozwala użytkownikowi ze świata realnego na interakcję z symulowanym komputerowo światem, oraz rzeczywistość rozszerzona, która łączy oba te światy, będą w 2017 roku podbijać rynek IT i to nie tylko rynek gier. Spółka Solution4Labs w ramach prac badawczo – rozwojowych pracuje nad integracją microsoftowych gogli HoloLens z systemem klasy LIMS, czyli systemem do zarządzania informacją w laboratoriach. Za sprawą systemów klasy LIMS w placówkach naukowych znika papierowa dokumentacja, a ogromne ilości danych są na bieżąco systematyzowane, kontrolowane i analizowane. Po integracji z goglami HoloLens system dodatkowo unowocześni pracę badaczy, którzy na przykład patrząc na konkretną probówkę, będą widzieli w goglach dokładny opis jej zawartości – tłumaczy dr inż. Waldemar Birk, prezes spółki Solution4Labs. Nowe rozwiązanie zaoszczędzi czas i pieniądze, a także będzie miało pozytywny wpływ na środowisko. Pojawienie się VR i AR w systemach klasy LIMS jest kolejnym krokiem wprowadzania nowoczesnych technologii w laboratoriach.
2
Machine Learning
W dzisiejszych czasach trudno wyobrazić sobie zaawansowane systemy informatyczne, które nie korzystałyby z dobrodziejstw uczenia maszynowego (ang. Machine learning), wykorzystywanego już nawet w codziennym prognozo-
waniu pogody. Dowodem na istnienie potężnego potencjału tego zagadnienia jest wprowadzanie coraz większej liczby usług oferowanych przez takich gigantów, jak Microsoft czy Google. Ułatwiają oni tworzenie systemów w znacznej mierze bazujących na uczeniu maszynowym. Biorąc na warsztat np. rozpoznawanie obrazów, kiedyś programiści musieli implementować różnego rodzaju algorytmy z tym związane, przez co wytworzenie konkretnego oprogramowania rozwiązującego określone problemy biznesowe zajmowało o wiele więcej czasu. Obecnie wystarczy skorzystać z gotowych usług chmurowych związanych z wykorzystaniem uczenia maszynowego. W konsekwencji klient szybciej otrzyma rozwiązanie spełniające jego potrzeby – mówi Marcin Bartoszuk, Business Development Manager w QBurst Poland. Machine Learning w związku ze swoim szerokim wykorzystaniem z pewnością będzie jednym z głównych trendów IT w 2017 roku.
3
Internet rzeczy (IoT)
Bez uczenia maszynowego ciężko jest też sobie wyobrazić szeroko pojęty świat Internetu rzeczy (ang. Internet of Things). Elektroniczne urządzenia gromadzące dane, przetwarzające je i wymieniające się nimi za pośrednictwem sieci, zyskują coraz większe zainteresowanie. Rozpoczynamy właśnie pracę nad wdrożeniem systemu SmartDom, czyli połączeniem komunikują-
17 25
cych się ze sobą inteligentnych urządzeń, których głównym celem jest zarządzanie funkcjami domu: sterowanie oświetleniem, ogrzewaniem i chłodzeniem, sterowanie oknami, roletami czy wentylacją, automatyczne otwieranie bramy garażowej, włączanie oświetlenia zewnętrznego w momencie wjazdu gospodarza na posesję i wiele, wiele innych – opowiada Robert Matyszewski, wiceprezes ds. sprzedaży w SoftwareHut. Zastosowane rozwiązania IoT w inteligentnym domu pozwolą na informowanie właściciela o awariach typu zalanie lub zadymienie oraz na integrację z systemem alarmowym i z beaconami (rozpoznawanie użytkownika i dostosowywanie ustawień domu na tej podstawie). SmartDom pozwoli również na prezentację i analizę danych, tj. rejestrację zużycia energii elektrycznej czy opału oraz udostępnienie przeglądu historii temperatur. Szacunki Gartnera mówią, że w 2020 roku 26 mld urządzeń będzie podłączonych do sieci. Wśród głównych korzyści z wykorzystania Internetu rzeczy w mieszkaniach wymienić można oszczędność czasu i pieniędzy, wzrost komfortu życia i poprawę bezpieczeństwa.
4
Cyberbezpieczeństwo
Rozwijający się Internet rzeczy wymaga intensywnych prac nad cyberbezpieczeństwem, ponieważ zbyt wielka ilość zgromadzonych danych na temat użytkowników zagraża ich prywatności. W wielu organizacjach z branży technologii informacyjnych strategiczne stają się działania poświęcone cybersecurity.
26
mensis.pl
Rok 2017 na pewno będzie rokiem, w którym będziemy słyszeli coraz częściej o cyberbezpieczeństwie, hakerskich atakach i o wyciekach danych z powodu braku zabezpieczeń w firmach. Hakerzy dostają się do systemów w różny sposób. Czasem znajdują błąd programisty i przez ten błąd wykradają dane, ale jeszcze częściej wykorzystują naiwność użytkowników. Pracownik firmy, który w sposób trywialny wybiera hasło dostępowe do systemu, który nie dba o bezpieczeństwo swojego komputera, może być osobą, która spowoduje wyciek danych – przewiduje Robert Strzelecki, wiceprezes grupy TenderHut. Polskie firmy mają bardzo słabo rozwinięte struktury związane z cyberbezpieczeństwem. Tak naprawdę o bezpieczeństwo IT dbają tylko duże korporacje, które zatrudniają całe działy związane z tym tematem. Natomiast firmy małe, średnie czy też mikroprzedsiębiorstwa, często korzystając z różnego rodzaju systemów dostępnych w Internecie, nawet nie myślą o tym, jak się zabezpieczyć przed włamaniem do tych systemów. Kompleksowe zabezpieczenie systemów ma związek z dużymi nakładami finansowymi powiązanymi z dalekosiężnymi inwestycjami i to zdecydowanie zniechęca polskich przedsiębiorców przed podjęciem tego rodzaju przedsięwzięcia. Zagrożeniem związanym z cyberbezpieczeństwem może być też brak wykwalifikowanych specjalistów. Miejsc pracy w tym segmencie wciąż przybywa, co nie jest niestety wprost proporcjonalne z pojawianiem się nowych pracowników.
rynek
5
Nearshoring, czyli nowy trend w europejskim outsourcingu IT
W 2017 roku potrzeba zatrudniania wykwalifikowanych specjalistów IT będzie stale wzrastać, ale można będzie również zauważyć w tym zakresie trend odchodzenia od współpracy w formie offshoringu z informatycznymi firmami z Azji. Coraz więcej firm będzie planowało przeniesienie procesów biznesowych do państw bliższych pod względem geograficznym i kulturowym. Na przestrzeni kilku ostatnich lat da się zauważyć wzrost kosztów offshoringu. Nie jest on już tak atrakcyjny cenowo jak kiedyś. Europejskie przedsiębiorstwa, np. ze Szwecji, Danii i Holandii, wolą więc zlecać realizację projektów IT firmom z Europy Środkowo – Wschodniej nie tylko ze względu na mniejsze różnice kulturowe, ale przede wszystkim ze względu na lepsze wykształcenie programistów, ich umiejętność analitycznego i krytycznego myślenia, a także znajomość języków obcych. Należy też pamiętać, że wybór partnera offshoringowego jest obarczony dużym ryzykiem i decydując się na taki krok, najlepiej wesprzeć go doświadczeniem firmy, która podobną współpracę już nawiązała. Nearshoring polega na korzystaniu z usług dostawcy znajdującego się w bliskim otoczeniu kraju, w którym działa firma zlecająca. Dlatego Polska, jako kraj biznesowo bardzo bliski Zachodowi zarówno pod względem kulturowym, jak i mentalnym, może bardzo zyskać na tym nowym trendzie. Zauważalną tendencją związaną z outsourcingiem usług IT będzie w tym roku większa integracja
klienta w procesach roboczych swoich dostawców. Sprawi to, że dostawcy outsourcingowi będą musieli stać się bardziej przejrzyści. Aby nie zostać wyrzuconym z rynku, firmy outsourcingowe powinny trzymać rękę na pulsie i być na bieżąco ze wszystkimi oczekiwaniami klientów. Konkurencja w branży będzie bowiem stale rosnąć.
Karol Przybyszewski VP Operations w QBurst Poland.
strategia
mensis.pl
27
28
mensis.pl
strategie
Jak nie robić optymalizacji konwersji? Piotr Oracz
Zajmowanie się optymalizacją konwersji nie należy do najłatwiejszych zajęć na świecie. Zresztą już sama nazwa jest myląca, ponieważ jeśli chcemy zoptymalizować tylko konwersję to recepta jest bardzo prosta. Wystarczy w sklepie obniżyć ceny wszystkich produktów do poziomu 1 zł i konwersja skoczy pod sufit, tylko biznes poszybuje na dno. W optymalizacji chodzi o wzrost, ale przede wszystkim wzrost średniej wartości odwiedzającego, a nie samej konwersji. Na średnią wartość odwiedzającego składają się: współczynnik konwersji oraz średnia wartość koszyka. Planując optymalizację sprzedaży w sklepie, musisz szukać zarówno sposobów na wzrost konwersji oraz na wzrost wartości koszyka.
Typowe podejście optymalizacyjne Masz cały bagażnik pomysłów. Przejrzałeś mnóstwo case studies, przeczytałeś drugie tyle ebooków o optymalizacji i uczestniczyłeś w wybitnych webinarach, gdzie pokazano mnóstwo przykładów. Wiesz, w związku z tym które działania się sprawdzają, a które nie. Czasem zdarza się, że za optymalizację zabiera się osoba z dużą wiedzą z zakresu User experiance, wierząc, że to wystarczy. Te wszystkie podejścia są niewystarczające. Dlaczego?
Mity w świecie optymalizacji Wszystkie mity w świecie optymalizacji mają swoje źródło … w Tobie. Ponieważ masz przekonanie, że ta cała wiedza, którą zebrałeś wystarczy do osiągnięcia dobrych wyników. A skąd ja to wszystko wiem? Z własnych błędów. Ponieważ każdy z tych mitów kiedyś również uważałem za prawdę. Twoja opinia ma znaczenie i wpływ na optymalizacje Opinia ma znaczenia, ale nie Twoja tylko klienta końcowego. To jego trzeba słuchać, bo to na końcu on podejmuje decyzję czy dokona zakupu w sklepie, czy też zrezygnuje z działania. Każdy ekspert ma opinię czy pomysł jak strona powinna wyglądać. Jednak to nie ta opinia sprzedaje. Jeśli nie zderzysz pomysłu z opinią klienta, to jest
mensis.pl
strategie
on niewiele wart. Warto wiec przygotowując się do testów uruchomić wcześniej na sklepie ankiety na porzucenie koszyka czy ogólniej na zakończenie wizyty i pytać o: cel wizyty, czy udało się go zrealizować, co można poprawić na stronie. Wniosek: Liczą się fakty, a nie opinie. Fakty należy przedstawiać w oparciu o dane i analizy. Doświadczenie powie Ci co działa, a co nie działa na stronie Nie można zakładać, że skoro 10 razy poprawiałem kartę produktu właśnie w ten sam sposób, to i w każdym kolejnym optymalizowanym sklepie trzeba ją poprawić dokładnie w taki sam sposób. To jest typowy błąd pospiesznego przepisywania lekarstwa bez badania jaka jest właściwe choroba. Jeśli przeczytałeś Case Study, na którym zmiana koloru przycisku podniosła sprzedaż, wcale nie znaczy, że powinieneś myśleć właśnie o takim teście na obecnie optymalizowanej stronie. Wniosek: Stronę należy zbadać, Jak korzystają z niej odwiedzający oraz czym różnią się sesje tych co kupili od tych co tyko przeglądali. Mam gotowe szablony co zmieniać na stronie Jeśli już masz na koncie kilkadziesiąt zoptymalizowanych stron, zaczniesz wyławiać wzorce, które zmiany częściej działają, a które wprost przeciwnie. To jest ta sama pułapka co w poprzednim micie, tylko wpadają w nią dużo bardziej doświadczone osoby zajmujące się optymalizacją. Polega ona na tym, że idziesz na skróty. Minimalizujesz nacisk na badania i analizę strony i wręcz wyrywasz się z działaniem, aby już zacząć pierwsze zmiany, ponieważ tyle razy dotychczas pomogły. Wniosek: unikaj rutyny, każdą stronę cierpliwie badaj a potem stawiaj diagnozy. Przy interpretacji wyników najważniejszy jest czas trwania testu Aby zakończyć test AB i poprawnie zinterpretować wyniki oraz wyciągnąć wnioski i rekomendacje musi być spełnione kilka kryteriów. Po pierwsze ufność statystyczna powinna być na odpowiednio wysokim poziomie. Zachęcam, aby nie schodzić poniżej 95%. Po drugie liczba konwersji powinna być znacząca i proporcjonalna do wielkości sklepu. Zwykle poziom 200 – 300 konwersji wystarcza, ale co jeśli sklep tyle
29
konwersji robi w jeden dzień? Wtedy to zdecydowanie za mało. Więc ile tych konwersji powinno być? To zależy ... od czasu trwania testu. Test powinien trwać absolutnie minimum 2 cykle biznesowe (dla sklepów oznacza to 2 tygodnie). Jeśli w tym okresie zbierzesz ok. 300 konwersji na każdy wariant testu + osiągniesz ufność statystyczną na poziomie 95%, to możesz śmiało kończyć test. Czy to wszystko? Oczywiście, że nie, bo najważniejsze pytanie jest co właściwie w ramach danego testu chcesz osiągnąć. Czy tylko sam wzrost konwersji? Na pewno nie. Zależy Ci na wzroście średniej wartości odwiedzającego. W związku z tym uwaga na narzędzia i kalkulatory w internecie, które liczą ufność statystyczną tylko dla samej konwersji. Wniosek: W interpretacji wyników najważniejsze są trzy czynniki : liczba konwersji, czas trwania i poziom ufności statystycznej. Wszystkie czynniki muszą być spełnione, aby uznać wynik testu za wiarygodny. Ponadto poziom ufności statystycznej musi być ustalany dla średniej wartości odwiedzającego (a nie samej konwersji). Mój test przyniósł 100% wzrostu Tylko dlaczego właściciel nie widzi takich wzrostów w sprzedaży? Z prostej przyczyny: nie uwzględniłeś zasięgu testu. Przykład: Pracujesz nad optymalizacją sklepu z bielizną. Optymalizujesz stronę z kategoriami a dokładnie z kategorią „biustonosze”. Zmieniasz kolejność prezentowanych filtrów mając hipotezę, że najczęściej wykorzystywane filtry powinny być na samej górze. Tylko, że w tej kategorii są takie filtry, których nie ma w kategorii np. „gorsety”. A więc Twój test AB nie działa na stronie wszystkich kategorii, na których wchodzi dajmy na to 90% odwiedzających, ale tylko na strony konkretnej kategorii, na którą wchodzi już tylko przyjmijmy 30% odwiedzających. A więc jeśli znalazłeś test AB, który dajmy na to zwiększa średnią wartość wizyty z 1 zł do 2 zł (wynik kosmiczny!) , to błędem będzie ogłoszenie, że oto dostarczasz rekomendację, która podniesie sprzedaż o 100%. Twoja zmiana dotyczy tylko tych 30% odwiedzających. I to jest właśnie zasięg, który pominąłeś w końcowym ustalaniu wyniku testu. Wniosek: Wyliczając końcowy wpływ testu na sprzedaż w sklepie musisz ustalić zasięg, czyli na ile procent odwiedzających Twoja zmiana ma realny wpływ.
30
mensis.pl
Jak powinna wyglądać skuteczna optymalizacja? Wbrew pozorom proces skutecznej optymalizacji jest bardzo prosty. Najważniejsze to ustawić cele do osiągnięcia. Pamiętaj, że nie samą konwersją sklep żyje. Minimum utrzymaj również obecną średnią wartość koszyka, a najlepiej również postaw na wzrost tej zmiennej. Kolejny krok to rozpocznij mierzyć i analizować stronę. To jest najbardziej rozbudowany temat. W analizach nie zapomnij o kupujących: zbieraj obiekcje i opinie od klientów na temat strony. Na bazie danych opracuj hipotezy, jak można ulepszyć stronę i dlaczego. Hipotezy powinny być spisane, ocenione pod względem stopnia skomplikowania, wpływu na stronę (zasięgu) oraz priorytetu, który powinieneś ocenić w odniesieniu do celów biznesowych.
strategie
•
• •
Badania Map Cieplnych np.: analiza kliknięć na różnych typach urządzeń ; analiza ruchów myszki ; analiza przewijania strony ; analiza wypełniania i porzucania formularzy. Badanie Opinii i Intencji np.: ankieta na porzucenie strony ; ankieta na porzucenie koszyka; Badanie Heurystyczne np.: badanie procesu zakupowego ; badania architektury informacji ; ocena ekspozycji działań marketingowych ; weryfikacja najlepszych praktyk UX.
Podsumowanie Optymalizacja to proces. Jeśli działasz ad-hoc na bazie swoich pomysłów czy doświadczenia to większość Twoich testów będzie nieudana. Systematyczność, cierpliwość są dużo skuteczniejsze niż genialne pomysły, czy szukanie magicznych szybkich rozwiązań. Nie zapominaj również o tym, kiedy uznać, że test można zakończyć oraz jaki jest jego realny wpływ na sprzedaż w sklepie.
Testuj zgodnie z opracowanym planem. Kończ test i interpretuj wyniki zgodnie z najlepszymi praktykami a więc bierz pod uwagę liczbę konwersji, czas trwania oraz ufność statystyczną. Pamiętaj, że jeśli wynik testu jest niepomyślny to nie znaczy, że hipoteza nadaje się do wyrzucenia do kosza. Być może proponowane lekarstwo, czyli zmiana byłą nietrafiona. Upewnij się, że testujesz kilka rozwiązań jednego problemu. Dlatego ostatni krok to: wyciągaj wnioski z wyników testów i wracaj do analizy. Jakie analizy należy obowiązkowo wykonać przed opracowaniem hipotez i rozpoczęciem testowania? •
•
•
Analiza techniczna np.: wpływ przeglądarek na sprzedaż ; wpływ urządzeń na sprzedaż ; wpływ szybkości ładowania strony na sprzedaż. Analiza zawartości stron np.: analiza stron problematycznych, które mają zaniżoną liczbę odsłon czy współczynnik konwersji ; efektywność stron docelowych ; analiza stron porzucanych ; wpływ sposobów poruszania się po stronie na sprzedaż. Analiza wyszukiwania np.: jakich haseł szukają klienci? Co znajdują? Skąd szukają? ; jakich rzeczy, których klienci szukają, a nie znajdują? ; wyszukiwania ogólne kontra precyzyjne.
Piotr Oracz
Dyrektor ds. Ecommerce w loopa.eu. Współpomysłodawca usług loopa.eu, które mają za zadanie zwiększać wyniki sprzedażowe e-sklepów. Specjalizuje się w analizach rynku i asortymentu dla e-commerce oraz w optymalizacji sprzedaży i konwersji. Wprowadził na polski rynek platformę Marketizator.pl, która pozwala bezpośrednio wdrażać na stronach e-sklepów i serwisów rekomendacje z analiz, optymalizacje wyglądu i działania marketingowe. Przez siedem lat pracował, jako konsultant w Microsoft. Jego główną specjalizacją było projektowanie i wdrażanie systemów klasy Business Intelligence dedykowanych dla sektorów Telekomunikacyjnego i Bankowego w Polsce i Europie.
mensis.pl
strategie
Jak opcje dostawy wpływają na sprzedaż w e-sklepie?
31
Marta Komar
Jak pokazują badania, logistyka jest jednym z najważniejszych elementów wpływających na zwiększenie lub zmniejszenie sprzedaży online. Potwierdzają to zarówno zachodnie, jak i polskie raporty publikowane regularnie, od kilku lat. Jednak to, że dotychczasowe wnioski i konstruowane na ich podstawie porady są łatwo dostępne nie oznacza, że sklepy internetowe chętnie z nich korzystają. Wiedza, za którą idą wzrosty, leży na ulicy, niewielu jest jednak takich, którzy chcą się po nią schylić. Widać to bardzo w najnowszym i jak do tej pory jedynym tego typu badaniu, które dotyczyło logistyki w małych i średnich oraz oddzielnie w dużych sklepach online w Polsce. Furgonetka.pl, czyli jedna z firm działających na zapleczu e-commerce, która dostarcza różne rozwiązania logistyczne dla sklepów online zdecydowała się przebadać ich faktyczne podejście do dostawy. Wyniki są dosyć zaskakujące, szczególnie jeśli chodzi o segment pierwszy, czyli mniejszych sprzedawców.
Wybór form dostawy Jedną z pierwszych informacji, które rzucają cień na polski e-handel jest fakt, że ok. 45% przebadanych małych i średnich sklepów oferuje tylko jedną formę wysyłki poprzez firmę kurierską, nie dając kupującemu możliwości wyboru, choć według dostępnych danych z innych raportów na temat e-commerce, aż 74% sprzedawców odnotowało wzrost sprzedaży w momencie zaoferowania większego wyboru opcji dostawy. Co więcej, 66% kupujących twierdzi,
że brak możliwości zmiany firmy dostawczej na inną spowoduje rezygnację z zakupu na rzecz innego sklepu internetowego z szerszą ofertą przewoźników. Wprawdzie te dwie informacje przekazują dwa zagraniczne źródła: State of Shipping in Commerce Temando oraz Delivering Consumer Choice 2016 Metapack, ale najbardziej znany polski raport Gemiusa (E-commerce w Polsce 2016) także potwierdza wpływ dostawy na sprzedaż. Według niego większa ilość opcji doręczenia jest czynnikiem decydującym o tym,
w którym e-sklepie klient zrealizuje zakup. Te same dane wskazują, że jeśli zakupiony towar jest dla kupującego z różnych powodów istotny, jest skłonny zdecydować się nawet na droższego przewoźnika, jeśli tylko będzie ufał, że produkt dotrze w doskonałym stanie i w odpowiednim terminie. Na podstawie tych informacji małe i średnie sklepy internetowe zdecydowanie powinny rozważyć udostępnienie więcej, niż jednej firmy kurierskiej do wyboru swoim klientom. Szczególnie, że w dobie brokerów usług kurierskich
32
mensis.pl
i aktywnych prób dopasowania logistyki do potrzeb e-commerce nie jest to bardzo skomplikowane zadanie. Idealnie tę sytuację podsumowują słowa Marka Molickiego, menedżera regionalnego z Gemiusa: “Oczywiście nikogo nie można zmusić do tego, żeby zarabiał więcej, ale tracić z powodu takich zaniedbań to po prostu wstyd”. Wprawdzie w/w komentarz dotyczył pierwotnie niedostosowania sklepów online do wymogów mobile, myślę jednak, że idealnie pasuje także do tej sytuacji. Żaden z analizowanych podmiotów nie oferował usługi same day delivery, co w zasadzie nie zaskakuje, ponieważ w tym segmencie jest jeszcze rzadko spotykana. Wśród dużych sprzedawców, według podobnych badań Furgonetki, dostawa w dniu zamówienia jest dostępna już u 13% przebadanych sklepów. Top 5 najczęściej spotykanych firm kurierskich w opcjach dostawy (małe i średnie sklepy) to Pocztex, DPD, DHL, UPS, GLS. Co ciekawe, w aż 61% tych sklepów pojawiają się Paczkomaty. Zapewne dlatego, że jest to jedna z najtańszych opcji oferowanych w tej chwili przez rynek, choć dziwi fakt, że ma je tylko niewiele ponad 60% badanych. Dla porównania u dużych sprzedawców TOP 5 firm dostawczych to Pocztex, DPD, UPS, oraz DHL i Inpost Express, a Paczkomaty, jako drugą opcję dostawy ma 89% sklepów. W tym segmencie, do zestawienia dochodzi także Paczka w Ruchu, która jest obecna w 56% sklepów i jest ogólnie najtańszą formą dostawy, ponieważ średnia cena za przesyłkę schodzi tu poniżej 5 zł.
strategie
Koszty dostawy Średni koszt wysyłki kurierem w małych i średnich e-sklepach to około 12,96 zł za paczkę przedpłaconą i około 17,94 zł dla paczek za pobraniem (COD). Różnica pomiędzy tymi dwoma rodzajami przesyłek to aż około 5 zł na niekorzyść paczek pobraniowych. Przyczyną większej ceny COD może być próba zniechęcenia kupujących do wyboru tej opcji. np. z powodu długiego czasu zwrotu kwoty pobrań przez firmy spedycyjne czy dużej ilości zwrotów nieodebranych paczek, co w tym segmencie sklepów może być znaczące dla płynności finansowej czy sprawności działania e-biznesu. Według przywoływanego już powyżej raportu Gemiusa – tania, a najlepiej darmowa dostawa, to jeden z głównych czynników, które decydują o wyborze danego sklepu. Czy prawie 13 złotych średnio za standardową paczkę u małych i średnich sprzedawców to mało czy dużo? Wydaje się, że jednak sporo, szczególnie w porównaniu do tego kosztu w dużych e-sklepach, gdzie wynosi on około 11 zł. Dodatkowo tylko około 28% małych i średnich sklepów online w Polsce oferuje opcję darmowej dostawy, przy czym jest ona i tak dostępna dopiero od stosunkowo wysokiej kwoty koszyka - średnio 342 zł. Nie wygląda to zachęcająco w porównaniu do drugiego badanego segmentu, ponieważ tam darmową dostawę ma aż 69% sprzedawców i wartość koszyka koniecznego do jej otrzymania znacząco się obniża - do 194 zł. Patrząc po corocznym sukcesie polskiego Dnia Darmowej Dosta-
wy można wyciągnąć wnioski, że brak tej opcji doręczenia znacząco wpływa na zmniejszenie konwersji. Należy też tu pamiętać, że wg danych zebranych przez Endicia aż 70% kupujących dodało kolejne towary do koszyka, żeby osiągnąć dostawę za 0 zł.
Komunikacja z klientem Pewne zaskoczenie budzi także fakt, że wśród małych i średnich sklepów około 25% z nich nie podaje nazwy firmy dostarczającej zakupione towary. Klient widzi tylko ogólne określenie “Kurier” w dostępnych opcjach wysyłki i nie wie nic więcej. Zdziwienie wywołuje też brak rzetelnej informacji o całkowitym koszcie za dostawę. Niestety zdarzają się sytuacje, w których kupujący poznaje tę kwotę dopiero w momencie przechodzenia do płatności. Tu warto też wspomnieć, że “Kurier No Name” jest zwykle droższy w porównaniu do konkretnie wskazanych przewoźników. Koszt to prawie 19 zł za paczkę przedpłaconą i około 22 zł za paczkę za pobraniem, czyli w porównaniu do średniej ogólnej ceny to około 6 zł więcej za zamówienie opłacone z góry i około 4 zł różnicy w COD. Te czynniki mogą skutkować porzuceniem koszyka przez klienta na ostatnim etapie zakupu online. W dużych sklepach ten problem nie jest tak widoczny, ponieważ tylko 7% z nich nie podaje nazwy kuriera. Z resztą powody ukrywania loga kuriera mogą być różne, czasami to tylko nieświadomość, że wpływa ono na poczucie bezpieczeństwa klienta, ponieważ wi-
mensis.pl
strategie
dząc znaną firmę będzie bardziej skłonny zaufać, że paczka przyjdzie do niego w całości. Czasami jednak sklepy online mają inne istotne, np. biznesowe powody, dla których nie podają nazwy firmy kurierskiej. Na przykład, jeśli korzystają z kilku przewoźników nie pokazując tego faktu klientowi, mogą próbować optymalizować koszty dostawy, bazując na różnicach w cennikach pomiędzy firmami spedycyjnymi, w zależności od rodzaju paczki i miejsca docelowego.
Wnioski końcowe Powyższe dane uwypuklają kilka wyzwań, przed którymi stoi polski e-commerce. Pierwszym jest to, że segment małych i średnich sklepów wciąż ma problemy z dostosowaniem swojej oferty do potrzeb kupujących - słabo się z nimi komunikuje i udostępnia za mało opcji dostawy, co m.in. przekłada się na małą sprzedaż. Niestety bez wyjścia naprzeciw potrzebom klientów stały wzrost ilości zamówień, będzie bardzo trudny, jeśli nie niemożliwy. Widać jednak, że duże sklepy odrobiły pracę domową i radzą sobie znacznie lepiej. Wiedzą już, że to kupujący rządzi w tym świecie, a sprzedawca powinien się do niego dopasować. Na szczęście jednak część z wymienionych wyżej problemów nie jest trudna do zmiany. Żeby się to stało, muszą jednak najpierw zapaść właściwe decyzje.
Marta Komar
marketing manager, Grupa Furgonetka Po n a d 6 l a t d o ś w i a d c ze n i a w marketingu, skoncentrowana na działaniach digital, przy wprowadzaniu nowych produktów dla wiodących firm w branży e-commerce. Obecnie o d p ow i a d a za p o p u l a r yza c j ę nowoczesnej logistyki oraz wdrożenie i rozwój usługi FurgonetkaDziś. Entuzjastka wearables, internetu rzeczy i niekonwencjonalnego podejścia do życia.
35
52
mensis.pl
marketing
Polska spółka RTB House zdobywa światowy rynek programmatic Rozmowa z Łukaszem Abgarowiczem
Łukasz Abgarowicz, Business Development Director Poland, RTB House Łukasz Abgarowicz jest związany z RTB House od początku 2014. Odpowiada za całość działań biznesowych w kraju, w tym m.in.: strategię sprzedaży, nowe kierunki rozwoju oraz wyniki finansowe polskiego oddziału spółki. RTB House działająca globalnie, polska spółka specjalizująca się w innowacyjnej technologii retargetingowej. Dzięki autorskiemu silnikowi do zakupu reklam, opartemu na algorytmach deep learnignowych, RTB House pomaga klientom na całym świecie zwiększać sprzedaż i osiągać krótko-, średnio- i długo-terminowe cele. Firma została założona w 2012 roku i obsługuje aktualnie ponad 1000 kampanii, na więcej niż 40 rynkach Europy, Bliskiego Wschodu, Afryki, Azji i Pacyfiku oraz Ameryki Łacińskiej. Zespół tworzy przeszło 200 specjalistów i stale rośnie.
strategie
mensis.pl
Krzysztof Rdzeń: 100 mln zł przychodu to ambitny cel jak na firmę z 4-letnim stażem?
w
2017
roku
Łukasz Abgarowicz: To ambitny cel, a jego realizacja oczywiście zależy od wielu czynników, ale jesteśmy przekonani, że to tylko kwestia czasu. W Q1Q3 2016 roku odnotowaliśmy 130% wzrostu przychodów w porównaniu z analogicznym okresem 2015 roku. W ciągu 4 lat działalności, udało nam się zbudować rozwiązanie, które z sukcesem konkuruje z narzędziem globalnego lidera rynku. W tym czasie stworzyliśmy struktury biznesowe w ponad 40 krajach Europy, Azji i Pacyfiku, regionu Bliskiego Wschodu i Ameryki Łacińskiej. Mierzymy wysoko, zarówno globalnie, jak i lokalnie, ale tylko dzięki takiemu podejściu mamy szansę stać się pierwszym wyborem największych graczy e-commerce na całym świecie. K.R.: Co pozwala RTB House rozwijać się w tak szybkim tempie? Ł.A.: Wyróżnia nas technologia. Dzięki ultra-szybkiemu procesowi wdrożenia najnowszych rozwiązań w takich dziedzinach, jak: analiza danych, cloud computing czy przetwarzanie danych w czasie rzeczywistym, możemy konkurować z firmami, które nie tylko mają kilkukrotnie większy zespół i budżet na rozwój, ale także ugruntowaną pozycję. Nie chodzi jednak o samo wdrażanie nowinek. Staramy się wykraczać poza standardowe działania i rozwijać technologię w oparciu o najnowocześniejsze prace w dziedzinie sztucznej inteligencji. K.R.: Jak wygląda skuteczność oprogramowania dostarczanego przez RTB House na tle rozwiązań konkurencji? Ł.A.: Nasi główni konkurenci w pracy nad rozwojem algorytmów wykorzystują machine learning (uczenie maszynowe). W RTB House stawiamy na deep learning, czyli szybko rozwijający się segment uczenia maszynowego, który polega na tworzeniu złożonych, wielopoziomowych lub „głębokich” sieci neuronowych, inspirowanych biologiczną aktywnością neuronów w ludzkim mózgu. Dzięki niemu potężne systemy komputerowe, analizując miliony danych, mogą rozpoznawać wzory, obiekty oraz inne elementy, a w retargetingu personalizowanym pomagać w uzyskaniu wyższego zwrotu z inwestycji i umożliwiać efektywne wykorzystanie budżetu reklamowego. K.R.: Big Data to hasło odmieniane przez wszystkie przypadki,co konkretnie znaczy w modelu RTB? Ł.A.: Big Data jest dziś bardzo popularnym hasłem, ale bez odpowiedniego kontekstu ma tak naprawdę niewielkie znaczenie. Same dane, nawet jeśli mówimy o niespotykanych dotąd ilościach, są bezużyteczne. Na znaczeniu zyskują dopiero dzięki odpowiednim narzędziom, które mogą je przetworzyć. W przypadku retargetingu personalizowanego w modelu RTB to właśnie systemy bazujące na sztucznej inteligencji umożliwiają dogłębną analizę wszystkich pozyskanych informacji, a tym samym automatyzację procesów zakupu i sprzedaży powierzchni reklamowych. Warto pamiętać, że decyzje o tym komu i jaką reklamę wyświetlić podejmowane są w dosłownie kilkadziesiąt milisekund, więc to jak szybko jesteśmy w stanie przetworzyć miliony zmiennych i jak trafne wnioski wysnuć jest wręcz kluczowe dla efektywności prowadzo-
35
36
mensis.pl
,,
W RTB House stawiamy na deep learning, czyli szybko rozwijający się segment uczenia maszynowego, który polega na tworzeniu złożonych, wielopoziomowych lub „głębokich” sieci neuronowych, inspirowanych biologiczną aktywnością neuronów w ludzkim mózgu.
strategie
nych w sieci działań. Samouczące się algorytmy, które przetwarzają dane właściwie 24/7, zapewniają reklamodawcom możliwość identyfikacji kluczowych e-klientów i dostarczenie im właściwych banerów, a tym samym zachęcenia do podjęcia konkretnych działań. K.R.: Kto i dlaczego potrzebuje RTB? Ł.A.: RTB (real-time bidding) to technologia umożliwiająca zakup i sprzedaż powierzchni reklamowych na stronach internetowych w czasie rzeczywistym. Jest to właściwie całe środowisko, w którym uczestniczą nie tylko reklamodawcy, ale również wydawcy, giełdy reklamowe, agencje optymalizujące przekaz reklamowy czy dostawcy technologii jaką jest np. retargeting personalizowany. Efektem tej współpracy są reklamy precyzyjnie dobierane do preferencji i zachowań internautów. Reklamodawcy korzystając z RTB mogą przeprowadzać zarówno kampanie efektywnościowe, jak i wizerunkowe. Wydawcy natomiast mają możliwość globalnego udostepnienia swojej powierzchni reklamowej i uzyskania lepszych cen za jej sprzedaż. RTB House prowadzi obecnie ponad 1000 kampanii. Przez naszą technologię obsługiwanych jest ponad 3,5 miliarda wyświetleń miesięcznie i około miliona kliknięć na dobę. Współpracujemy m.in. z: Trivago, Allani, Wittchen, pracuj.pl, Venezia, gratka.pl czy Plus. K.R.: Co wyróżnia retargeting personalizowany od rozwiązania oferowanego przez Google w sieci Adsense czy Dynamic Product Ads Facebooka? Ł.A.: W ramach rozwiązań Google czy DPA Facebook’a również można realizować działania retargetingu personalizowanego. RTB House wyróżnia na tym tle bardzo wysoka skuteczność prowadzonych działań, elastyczne modele rozliczeń i zdecydowanie większy zasięg (banery emitowane w ramach retargetingu personalizowanego mogą być widoczne również w pozostałych zarówno globalnych, jak i lokalnych sieciach, w tym m.in.: DoubleClick, Yahoo Ad Exchange, Rubicon czy PubMatic oraz w ramach umów bezpośrednich z największymi wydawcami). Nasze algorytmy pomagają rozpoznać np. użytkowników zdradzających intencje zakupowe, dzięki czemu prowadzone działania reklamowe przynoszą szczególnie dobrą stopę zwrotu z inwestycji. Nie bez znaczenia są też kreacje, które nie tylko wpływają na konwersje, ale – co często jest równie istotne z punktu widzenia naszych klientów – realizują ich cele komunikacyjne i wizerunkowe. K.R.: Jakie znaczenie ma RTB w e-commerce? Ł.A.: Nasze rozwiązanie skierowane jest przede wszystkim do branży e-commerce i to ona zyskuje najwięcej. Choć rynki w naszym portfolio różnią się pod kątem stopnia zaawansowania, wspólnym mianownikiem pozostaje potrzeba adaptacji najnowszych technologii dla dynamicznie rozwijającego się sektora e-commerce. Należy jednak pamiętać, że zakupy w sieci, a zatem i kampanie promocyjne cechują się sezonowością – np. w okresie przedświątecznym czy wyprzedażowym wiele marek przypomina sobie o konieczności zwiększenia nakładów na działania marketingowe.
strategie
K.R.: Dlaczego globalny e-commerce powinien wybierać rozwiązania od RTB House? Ł.A.: Przy doborze retargetera warto wziąć pod uwagę czy pozwoli nam on na realizację celów średnio i długofalowych, ale też takich krótkoterminowych, związanych z konkretnymi wydarzeniami czy promocjami. W RTB House dostosowujemy projektowane kampanie do założeń klienta, dlatego większość marek, z którymi współpracujemy traktuje kampanie banerowe jako stały element komunikacji. Rozwiązanie wzbudza duże zainteresowanie np. w branży modowej i turystycznej. Biura podróży czy hotele mogą dzięki retargetingowi personalizowanemu łatwiej dotrzeć do perspektywicznych klientów. Nie muszą już prowadzić kampanii „na oślep”. Dziś są w stanie dotrzeć ze swoją ofertą do tych, którzy w niedługim czasie planują podróż w konkretne miejsce i przedstawić im możliwie najlepszą ofertę. W Polsce usługi retargetingowe bardzo dynamicznie rozwijają się w sektorze AGD oraz elektroniki. K.R.: Jak wygląda skuteczność oprogramowania dostarczanego przez RTB House na tle globalnego lidera rynku? Ł.A.: Nie mamy wglądu w statystyki konkurencji, ale regularnie badamy poziom zadowolenia naszych klientów i bardzo cenimy sobie informacje zwrotne, jakie od nich otrzymujemy. Współpracując z największym markami niejednokrotnie spotykamy się z sytuacją, gdy klient korzysta z usług więcej niż jednego retargetera i często cele biznesowe dla każdego z nich są inne. W oparciu o ustalone kryteria przygotowujemy kampanie, a wyniki ostatecznie pokazują wzrost sprzedaży po stronie klienta. To bardzo uproszczony schemat, ale w dużej mierze tak to wygląda – nastawienie na cel i elastyczne podejście do prowadzonych kampanii pozwala nam maksymalizować założone efekty, a klientów utwierdza w przekonaniu o właściwym wyborze. Dzięki wspomnianej już technologii, która nas wyróżnia, z powodzeniem konkurujemy z największym graczem na rynku. K.R.: Jaki będzie kolejny krok w personalizowaniu reklamy online? W jakim kierunku zamierzacie rozwijać narzędzia czy widzicie możliwość łączenia klientów offline z online? Ł.A.: Wraz ze wzrostem nakładów na reklamę digital możemy spodziewać się większego zainteresowania rozwiązaniami bazującymi na najnowszych technologiach. W dalszym ciągu będą też wzrastać wydatki na automatyzację procesów marketingowych. Jak wynika z szacunków domu mediowego MEC, w 2016 roku polscy reklamodawcy zainwestowali w reklamy programmatic blisko 400 mln zł, co stanowiło 25% budżetów przeznaczonych na reklamę internetową. W 2017 marki będą jeszcze chętniej chciały dotrzeć do konsumentów przez każdy dostępny ekran, dlatego planowanie wielokanałowych kampanii reklamowych będzie najbardziej efektywną strategią. Nieodłącznym elementem tychże kampanii będzie wspomniany deep learning. Dzięki temu reklamodawcy będą w stanie przewidzieć zachowania użytkowników, obliczyć prawdopodobieństwo zakupu czy też dokładniej mierzyć ich wartość. Jeśli natomiast chodzi o łączenie działań offline z online, to już się dzieje. W zależności od celów określonych przez klienta jesteśmy w stanie zoptymalizować prowadzone kampanie, w taki sposób, by komunikowały nie tylko wybrane oferty, lecz także akcje prowadzone w sklepach stacjonarnych.
,,
mensis.pl
37
RTB (real-time bidding) to technologia umożliwiająca zakup i sprzedaż powierzchni reklamowych na stronach internetowych w czasie rzeczywistym. Jest to właściwie całe środowisko, w którym uczestniczą nie tylko reklamodawcy, ale również wydawcy, giełdy reklamowe, agencje optymalizujące przekaz reklamowy czy dostawcy technologii jaką jest np. retargeting personalizowany.
38
mensis.pl
strategie
Efektywność marketingu – jak i co mierzyć? Robert Banaszak
Z założenia działalność marketingowa w branży e-commerce docelowo powinna służyć zwiększaniu sprzedaży – w końcu o bycie lub niebycie firmy świadczy jej rachunek ekonomiczny. W praktyce jednak zmierzenie i ocena wpływu poszczególnych kanałów marketingowych na ogólny wynik finansowy wciąż stanowi nie lada wyzwanie. Skuteczną odpowiedzią na tego typu trudności może być wykorzystanie analityki marketingowej w ujęciu holistycznym, tzn. odnoszącym się do kluczowych wskaźników efektywności KPI.
Definiowanie celów strategicznych i operacyjnych przy pomocy KPI Według raportu „The state of inbound 2016” opracowanego przez Hubspot na próbie ponad 4500 przedsiębiorstw z całego świata funkcjonujących na rynku Internetowym jedynie 61% marketerów uważa, że ich strategia marketingowa jest efektywna. Z czego to wynika? Czy to oznacza, że w prawie 40% przypadków działalność marketingowa nie przynosi wymiernych korzyści finansowych, a jedynie straty? Taki wniosek byłby sporym nadużyciem. Problem tkwi
w trudności w udokumentowaniu zależności pomiędzy wynikiem finansowym firmy (rocznym zyskiem netto), a procesami marketingowymi przedstawianymi w bilansie finansowym jako suma wydatków na marketing. Zwrot z inwestycji ROI – bo to o nim mowa – należy do grupy kluczowych wskaźników efektywności KPI (key performance indicators), które powinny być uwzględniane przy definiowaniu długofalowych, strategicznych celów przedsiębiorstwa funkcjonującego na rynku e-commerce ze względu na ich użyteczność metryczną.
strategie
Na wstępie warto zaznaczyć, że wskaźniki efektywności KPI mogą mieć również charakter niefinansowy. Istota ich zastosowania zależy przede wszystkim od celów strategicznych postawionych przez firmę w danym przedziale czasowym. Zakładając, że przedsiębiorstwo za cel strategiczny obrało maksymalizację zysku netto w nadchodzącym roku, wskaźniki KPI mogą odnosić się m.in. do celów operacyjnych ukierunkowanych na zwiększenie wolumenu sprzedaży (obrotu) poprzez pozyskanie nowych klientów (agresywne kampanie – wzrost kosztów), ale również poprzez zwiększenie ich lojalności (poprawa wskaźnika LTV – customer lifetime value) lub obniżenie kosztów pozyskania klienta (zmniejszenie wskaźnika CAC – customer aquisition cost). Możliwości optymalizacji w tym zakresie jest wiele – dla jednej firmy lepszym rozwiązaniem będzie poprawa współczynnika konwersji, dla innej zwiększenie samego ruchu na stronie (w postaci wejść pośrednich lub bezpośrednich). Skupienie wysiłków, także w wymiarze finansowym, na poprawę określonych wskaźników efektywności KPI w celu realizacji określonego celu operacyjnego przekłada się na wspomniany wcześniej zwrot z inwestycji ROI w ujęciu całościowym. Na tym etapie wszystko byłoby proste i jasne gdyby nie fakt, że wskaźnik ROI jest funkcją nieliniową, tzn. zarówno samo zwiększenie, jak i zmniejszenie nakładów na marketing (w celu zwiększenia zysku netto) nie musi determinować wyniku finansowego. Kluczowa jest tutaj efektywność alokacji środków finansowych w wybrane procesy marketingowe. W tym momencie dochodzimy do sedna pomiaru efektywności marketingu, z którą wiąże się pojęcie kosztów krańcowych. Wpływ kosztów krańcowych na proces decyzyjny związany z alokacją środków finansowych w wybrane kanały marketingowe najlepiej zobrazować na przykładzie. Firma X z jednej konwersji osiągała zysk na poziomie 150 zł. Uruchomiona kampania AdWords generowała 1500 konwersji miesięcznie przy łącznym koszcie kampanii w wysokości 150 000 zł. Chcąc zwiększyć sprzedaż firma zdecydowała się zintensyfikować kampanie, co poskutkowało zwiększeniem konwersji do 1700 oraz wzrostem kosztów do 190 000 zł w skali miesiąca. Czy zintensyfikowanie kampanii było opłacalne? Już na pierwszy rzut oka widać, że wzrost wydatków na kampanię spowodował drastyczny wzrost jednostkowego kosztu konwersji. Wcześniej wynosił on 100 zł
mensis.pl
39
(zysk netto z kampanii – 75 000 zł), później zaś wzrósł do 111,76 zł, (zysk netto po zintensyfikowaniu kampanii – 65 000 zł). Wskaźnik ROI spadł zatem z 50% do 34,21%. Można byłoby zatem wysnuć wniosek, że zwiększanie nakładów finansowych w wybranym kanale marketingowym (w tym przypadku kampanii AdWords) dopóty będzie opłacalne, dopóki jednostkowy koszt konwersji osiągnie próg rentowności, prognozowany w oparciu o ostatnie źródło konwersji. Niestety, w praktyce powyższa konkluzja nie odzwierciedla rzeczywistości ze względu na fakt, że kanały marketingowe niekonwertujące w sposób bezpośredni nie można definitywnie zaklasyfikować jako nierentowne lub mniej zyskowne bez dokonania pogłębionej analizy. Wdrożenie strategii omnichannel przez większość firm e-commerce pokazało, że nawet jeśli dany kanał marketingowy nie bierze bezpośredniego udziału w konwertowaniu, to może przyczynić się do niego w sposób pośredni. Ponadto przy analizowaniu rentowności przedsięwzięć marketingowych warto brać pod uwagę całość relacji z klientem w dłuższej perspektywie czasowej (zakup rozłożony w czasie, cykl życia klienta w firmie - LTV). Jak dokonać takiej pogłębionej analizy? Za pomocą analizy kohortowej i atrybucji konwersji!
Analiza kohortowa – potężne narzędzie od Google Analytics Analiza kohortowa dostępna w panelu Google Analytics umożliwia grupowanie danych o naszych użytkownikach/klientach w kohorty (segmenty) na podstawie wspólnych cech poddających się analizie ilościowej. Dzięki kohortom można w dłuższej perspektywie czasowej ocenić efektywność kanałów marketingowych w oparciu o zdefiniowane kryteria, a uśrednione wyniki mogą posłużyć również do celów prognostycznych w wymiarze finansowym. W celu wygenerowania raportu analizy kohortowej w Google Analytics należy zdefiniować 4 zmienne: • • • •
Typ (wymiar) kohorty – data pozyskania klienta, Wielkość kohorty - według dnia, tygodnia lub miesiąca, Dane – przychodowe, dotyczące ruchu na stronie, transakcji, odrzuceń i wiele innych. Zakres dat – wybieramy interesujących nas szereg czasowy.
Wygenerowany raport przedstawia poszczególne kohorty w postaci wykresu i tabeli, dzięki czemu można
40
mensis.pl
wychwycić rozmaite tendencje w obszarze dochodowości klientów od dnia ich pozyskania (tzw. data 0) w perspektywie długookresowej. Ponadto można również wyliczyć średni, procentowy udział dodatkowego dochodu wygenerowanego po okresie pozyskania klienta, co z kolei pozwala oszacować potencjalną wartość konwersji w przyszłości. Pogłębioną analizę można poszerzyć także o dane dotyczące ruchy płatnego i bezpłatnego, a nawet oszacować wartość i koszt pozyskania dodatkowego klienta w różnych okresach – ułatwiając tym samym podejmowanie decyzji marketingowych pod kątem rentowności . Możliwości analizy kohortowej są bardzo szerokie. Jej niewątpliwym walorem jest możliwość zweryfikowania długookresowych skutków działalności promocyjnej (np. kampanii AdWords, e-mailingu). Co istotniejsze analiza kohortowa pozwala zauważyć dynamikę zmian dotyczących kosztów krańcowych pozyskania nowego klienta, a także wartości, jakie wypracowują poszczególne segementy klientów w czasie. Jedynym mankamentem analizy kohortowej jest brak innych wymiarów kohort poza datą pozyskania klienta, co uniemożliwia precyzyjną ocenę wpływu poszczególnych kanałów marketingowych na wyniki finansowe (można jedynie szacować). Pomocnym narzędziem w tym przypadku może być atrybucja konwersji.
W poszukiwaniu źródeł konwersji Strategia wielokanałowości w dotarciu do potencjalnych klientów w istotny sposób utrudnia ocenę wpływu pojedynczych kanałów w generowaniu konwersji. Bardzo często zdarza się, że klient przed sfinalizowaniem zakupu kilkukrotnie zetknął się z naszymi komunikatami marketingowymi – np. poprzez wizytę na blogu firmowym, kanale FB czy kliknięcie w reklamę AdWords. Określenie roli poszczególnych kanałów w dotarciu do klienta można dokonać dzięki modelom atrybucji, oraz konwersji wspomaganej. Modele atrybucji konwersji dostępne w panelu Google Analytics można podzielić na: •
Ostatnie kliknięcie niebezpośrednie – standardowy, domyślny model, w którym konwersje przypisuje się ostatniemu, niebezpośredniemu źródłowi (wyjątek stanowią wejścia direct)
strategie
• • • • • •
Ostatnia interakcja – ostatnie źródło konwertuje, Pierwsza interakcja, Model liniowy – zakłada równy (procentowo) udział poszczególnych kanałów marketingowych w generowaniu konwersji, Rozkład czasowy – ostatnie kanały uzyskują proporcjonalnie większy udział w konwertowaniu, Uwzględnienie pozycji – pierwszemu i ostatniemu przypisuje się największy wpływ w generowaniu konwersji, Ostatnie kliknięcie AdWords.
Ponadto istnieje możliwość samodzielnego opracowania modelu konwersji. Wymaga to jednak ogromnej wiedzy na temat specyfiki danej branży i procesów w niej zachodzących. Modele konwersji dostępne w Google Analytics choć mogą być przydatne, to opierają się na z góry przyjętych założeniach, które niekoniecznie muszą się sprawdzać w poszczególnych biznesach. Przy ocenie efektywności danego kanału marketingowego warto również wziąć pod uwagę jego procentowy udział w generowaniu tzw. konwersji wspomaganej. Oszacowanie rentowności (udziału w zyskach, dochodowości) poszczególnych kanałów z uwzględnieniem ich funkcji pośrednich (w odniesieniu do całości wolumenu sprzedaży w danym okresie) jest trudne i zależy w dużej mierze od umiejętności analitycznych działu marketingu. Faktem jest jednak, że Ci marketerzy, którzy liczą ROI z działalności marketingowej w skali roku i potrafią udokumentować swój pozytywny wpływ na rozwój firmy, uzyskują o 1,6 razy większy budżet na marketing (HubSpot 2016).
Robert Banaszak Freelancer - copywriter
60
mensis.pl
akademia
Wywiad z Jakubem Ślusarczykiem – współzałożycielem Protos VC Jakub Ślusarczyk - absolwent SGH oraz międzynarodowego programu CEMS Master in International Management. Od dekady aktywny uczestnik polskiej sceny startupowej w charakterze instytucjonalnego inwestora oraz anioła biznesu. Doświadczenia nabierał w niemieckim funduszu bmb Venture Capital, który inwestował w takie firmy jak bankier.pl, nokaut czy k2internet. Jako Risk Manager w FM Bank uczestniczył w jednej z większych inwestycji typu seed w Polsce. Przez prawie 3 lata Financial Controller w BBI Capital odpowiedzialny m.in. za finanse, raportowanie oraz nadzór właścicielski nad kilkoma spółkami portfelowymi. Od kwietnia 2013 roku związany ze spółką Protos Venture Capital.
ARKADIUSZ ROSZAK: Pod koniec zeszłego roku doszło do wyjątkowej integracji w polskim e-marketingu. Positionly, startup z waszego portfela, połączył siły z UsabilityTools, aby pod swoją marką oferować kompleksowe rozwiązania w zakresie Search Experience Optimization (SXO). Czy dla Protos VC oznacza to dalszy rozwój projektu, czy już udane wyjście z inwestycji? JAKUB ŚLUSARCZYK: Jeżeli chodzi o wspomnianą transakcję to jest ona częścią szerszej strategii obejmującej rozbudowę produktu i stworzenie kompleksowego rozwiązania w tym obszarze rynku. Positionly stanęło przed typowym problemem „make or buy”, wykonać czy kupić, więc postanowiliśmy, że korzystniej będzie skupić gotowe rozwiązania oferowane przez UsabilityTools. W tym momencie projekt jest dalej rozwijany i przechodzi fazę integracji oraz formułowania poszerzonej oferty produktowej.
strategie
mensis.pl
AR: Czyli spółka nadal pozostaje w waszym portfelu? JŚ: Tak, mamy tu do czynienia z klasycznym przejęciem gdzie Positionly było stroną przejmującą. W jego wyniku do akcjonariatu Positionly dołączyły kolejne podmioty, ponieważ transakcja po części była wykupem, a po części wymianą udziałów. My jesteśmy dalej inwestorem wraz z innymi, zaangażowanymi w spółkę funduszami. AR: Jaką rolę podczas takiej transakcji odgrywa VC? JŚ: Nasza rola ma przede wszystkim charakter doradczy. Wspólnie z założycielami, właścicielami startupów, uczestniczymy w procesie budowania, a następnie konsekwentnej egzekucji odpowiedniej strategii. Najlepszej zarówno dla założycieli, jak i dla inwestorów. AR: Czyli jakiej? JŚ: Zakończonej zyskowną transakcją i udanym wyjściem, tak jak w przypadku Allani. Podczas omawianej transakcji przejęcia UsabilityTools największą pracę wykonał CEO Positionly Grzegorz Kazulak. Jeżeli jednak po stronie założycieli brakuje odpowiednich kompetencji w obszarze M&A, to jako doświadczony zespół wspieramy założycieli, aby z sukcesem przeprowadzić takie operacje. AR: Zostało wywołane Allani. Rozumiem, że w przypadku tej spółki możemy mówić o dobrze zrealizowanej strategii wyjścia? JŚ: Zgadza się. Ten przykład pokazuje klasyczny model funkcjonowania venture capital, kiedy fundusz dostarcza spółce finansowania na realizację określonego planu rozwoju obejmując w zamian udziały. Następnie wspiera założycieli w realizacji tego planu i jeżeli wszystko idzie dobrze, sprzedaje swoje udziały z zyskiem. Dlatego wkład funduszu to nie tylko kapitał, ale również kompetencje, które razem z potencjałem założycieli pomagają w określonym czasie zbudować wartość spółki. Na pewnym etapie po spółkę zgłasza się zainteresowany inwestor branżowy lub sam fundusz inicjuje proces sprzedaży. Po takiej operacji VC jako inwestor finansowy zazwyczaj w całości sprzedaje swoje udziały. Inaczej sytuacja przedstawia się w przypadku założycieli, ponieważ ich wyjście najczęściej związane jest z tzw. earn-outem, który zapewnić ma płynne przejęcie spółki przez nowego właściciela. W praktyce przekłada się to na pomoc założycieli w integracji firmy przejmującej i przejmowanej, a wyjście dokonuje się stopniowo w ramach kilku transakcji w oparciu o wyniki spółki po przejęciu. AR: Czy podczas realizacji inwestycji zakładacie jakieś progi rentowności lub progi wyjścia? JŚ: Jako fundusz definiujemy sukces jako sprzedaż udziałów spółki z zyskiem. Nie zawsze wiąże się to z osiągnięciem konkretnych progów przychodowych po stronie spółki. O nich mówi się raczej w przypadku pewnej progresji rund finansowania. Osiągnięcie pierwszych przychodów jest ważnym kamieniem milowym w życiu spółki. Inwestorzy mogą analizować wtedy inicjalną trakcję, która obrazuje tempo i potencjalną skalę wzrostu startupu oraz wykazuje poziom zainteresowania produktem na rynku. Na dalszych etapach zakłada się
43
44
mensis.pl
,,
Nasza rola ma przede wszystkim charakter doradczy. Wspólnie z założycielami, właścicielami startupów, uczestniczymy w procesie budowania, a następnie konsekwentnej egzekucji odpowiedniej strategii. Najlepszej zarówno dla założycieli, jak i dla inwestorów.
strategie
już odpowiednio wyższe wartości przychodów, ale wiele zależy od konkretnego rynku i modelu biznesowego. Mówiąc na przykład o serii A w warunkach polskich, czyli drugiej lub trzeciej rundzie finansowania, oscylujemy w okolicach 100 – 200 tys. zł przychodu miesięcznie. Wracając do tematu exitu trzeba pamiętać, że gotowość spółki do wyjścia nie wynika jedynie z wartości przychodów, ale również z tempa jej wzrostu. Jeżeli widzimy, że krzywa wzrostu zaczyna się wypłaszczać, to dla naszego funduszu, inwestującego na wczesnej fazie jest to sygnałem do poszukiwania możliwości wyjścia. AR: A gdyby jednak pokusić się o jakieś dane liczbowe? JŚ: Jeżeli mówimy o rentowności inwestycji, to pamiętajmy że finalnie zależy ona przede wszystkim od wyceny spółki w momencie wejścia funduszu i w momencie jego wyjścia. Należy więc na spółkę spojrzeć relatywnie w tych dwóch momentach, a nie w kategoriach pewnej absolutnej wartości przychodu lub zysku, który powinna osiągnąć. Szczególnie, że zupełnie inaczej wyceni się tą samą złotówkę przychodu generowaną przez spółkę działająca w modelu SaaS, a inaczej, jeżeli ten przychód jest generowany przez marketplace. Model biznesowy jest kluczowy. Podobnie jak tempo wzrostu. Spółka, która rośnie szybciej, jest co do zasady warta więcej AR: Zatrzymajmy się przy modelach biznesowych. Przeglądając wasz portfel uwagę zwracają platformy marketplace takie jak lavito czy lokalny rolnik oraz lead generatory typu twojasuknia.pl i star of service. Czy to zwykły zbieg okoliczności czy może jakiś dominujący trend na rynku? JŚ: W Protos VC mocno wierzymy w specjalizację, gdyż wtedy jesteśmy w stanie najbardziej wesprzeć założycieli w rozwoju firmy. Koncentrujemy się nie na branżach, ale na modelach biznesowych, a konkretnie na modelu marketplace oraz SaaS. Lead generator jest pewnym szczególnym przypadkiem modelu marketplace, ale bez funkcjonalności transakcyjnej, lecz nadal spełniającym podstawową rolę kojarzenia popytu i podaży. Przykładem SaaSów w naszym portfelu są Positionly oraz POS Bistro. Spółki działające w oparciu o ten sam model biznesowy mają wiele cech wspólnych, niezależnie od tego czy obsługują rynek medyczny, odzieżowy lub health&beauty. W ramach prowadzonych projektów zbudowaliśmy już, w naszej ocenie, spore kompetencje, które są doceniane przez startupy. Jednocześnie widzimy obecnie silne przenikanie się modeli SaaS oraz marketplace. SaaS stanowi często zachętę dla jednej ze stron transakcji do wejścia na marketplace, co ułatwia następnie zbudowanie płynności na platformie lub inaczej mówiąc zrównoważenie popytu i podaży. Są to tzw. SaaS enabled marketplaces Ta zależność pozwala budować trwałe i skalowalne biznesy. Z innych ciekawych trendów wyróżniłbym pojawianie się platform marketplace skoncentrowanych na B2B, podczas gdy do tej pory dominowały platformy B2C. Pomimo ukierunkowanej strategii działań nie możemy zapominać, że jako fundusz działamy na szybko zmieniającym się rynku. Stąd nieustanna obserwacja rozwoju nowych technologii, osiągnieć w zakresie sztucznej inteligencji czy najnowszych inicjatyw Facebooka i Google. To warunek konieczny do wyboru najlepszych projektów do portfela.
,,
strategie
AR: Dwa z realizowanych przez fundusz projektów działają na rynku usług fryzjerskich. Skąd takie zainteresowanie wydawałoby się bardzo niszową branżą? JŚ: Patrząc na usługi fryzjerskie należy przede wszystkim zobaczyć je jako część rynku health&beauty, który jest rynkiem masowym i w samej Polsce szacowany jest na kilka miliardów złotych i cały czas rośnie. Rolą naszego funduszu jest weryfikacja potencjału danego rynku wraz z możliwościami jego rozwoju. Rynek kosmetyczny znajduje się w podobnym momencie, co kilka lat temu bankowość czy turystyka. Szybko postępująca digitalizacja domaga się odpowiednich rozwiązań i nadążających za nimi narzędzi. Stąd inwestycje funduszu w skalowalne i dające się dobrze zmonetyzować platformy marketplace takie jak Kolay Randevu i lavito. AR: A czy inwestujecie w klasyczny e-commerce B2C? JŚ: Myślę, że na tego typu inwestycje spóźniliśmy się o kilka, a może kilkanaście lat. Ten rynek jest już mocno zatłoczony i skupia wielu graczy o ustabilizowanej pozycji. Po drugie klasyczny e-commerce to biznes mocno kapitałochłonny z bardzo dużą komponentą logistyczną typu magazyn, dostawy czy zwroty.
mensis.pl
45
RTB (real-time bidding) to technologia umożliwiająca zakup i sprzedaż powierzchni reklamowych na stronach internetowych w czasie rzeczywistym. Jest to właściwie całe środowisko, w którym uczestniczą nie tylko reklamodawcy, ale również wydawcy, giełdy reklamowe, agencje optymalizujące przekaz reklamowy czy dostawcy technologii jaką jest np. retargeting personalizowany.
AR: Jedną z waszych najbardziej znanych inwestycji w segmencie SaaS jest shoplo. Jak rozwija się ta inwestycja? Ile sklepów abonamentowych obsługuje? JŚ: Shoplo działa na mocno konkurencyjnym i wymagającym rynku. Jednak to co wyróżnia nasz projekt to bardzo dobry produkt, który skutecznie broni się przed konkurencją. Duża zasługa w tym, założycieli, którzy wykorzystując posiadane doświadczenie znaleźli kosztowo efektywny model wzrostu. Klienci cenią shoplo za profesjonalizm i intuicyjność, a platforma z roku na rok nabiera coraz większego rozpędu. Obecnie z jej produktu korzysta ok. 1500 klientów i liczba ta cały czas rośnie. Na pewno tempo jeszcze przyspieszy dzięki wprowadzeniu modułu do zarządzania sprzedażą w wielu kanałach i na różnych platformach – shoplo multichannel. Jest to też dobry przykład jak powinien ewoluować produkt w odpowiedzi na rynkowe trendy i feedback klientów. AR: Protos VC to osoby, które samodzielnie odniosły spektakularne sukcesy na rynku internetowym – niania.pl, remontuj.pl, GoldenLine.pl., ZnanyLekarz.pl czy finansowym - Grupa Kapitałowa Kruk, BBI Capital, IEG Investment Banking. Skąd w takim razie pomysł na połączenie sił i stworzenie funduszu inwestycyjnego? JŚ: Poznaliśmy się w roku 2008, kiedy pracując z Krzysztofem Nowińskim w niemieckim funduszu bmp zainwestowaliśmy w startup, w którym pracował Michał Skrzyński i Marcin Kurek. Inwestycja okazała się sukcesem i po wyjściu ze spółki postanowiliśmy wspólnie inwestować jako aniołowie biznesu. Widząc pozytywne efekty naszych działań postanowiliśmy je zinstytucjonalizować w postaci funduszu VC. Tak powstał Protos.
46
mensis.pl
,,
W Protos VC mocno wierzymy w specjalizację, gdyż wtedy jesteśmy w stanie najbardziej wesprzeć założycieli w rozwoju firmy. Koncentrujemy się nie na branżach, ale na modelach biznesowych, a konkretnie na modelu marketplace oraz SaaS. Lead generator jest pewnym szczególnym przypadkiem modelu marketplace, ale bez funkcjonalności transakcyjnej, lecz nadal spełniającym podstawową rolę kojarzenia popytu i podaży.
strategie
AR: Na rynku powstaje coraz więcej spółek VC. Czym szczególnym wyróżnia się wasza firma na tle konkurencji? JŚ: Przede wszystkim jesteśmy mocno zorientowani na inwestycje w startupy we wczesnej fazie rozwoju. To wynika nie tylko z potencjału jaki widzimy w tym rynku, ale również ze zdobytego w tej materii doświadczenia. Każdy albo sam brał udział w tworzeniu startupów lub inwestował w startupy. W pierwszym przypadku niezastąpione wydaje się być doświadczenie Marcina Kurka czy Michała Skrzyńskiego. W drugim ważną rolę odgrywają kompetencje Krzysztofa Nowińskiego, Pawła Sikorskiego czy moje. To budowanie i inwestowanie w startupy własną ręką oraz wzajemne przenikanie się naszych doświadczeń i kompetencji jest na pewno czynnikiem budującym zaufanie wśród założycieli spółek, w które inwestujemy. AR: Ile inwestycji zostało dotychczas podjętych przez ProtosVC? Ile z nich zakończyło się zyskiem? Jak przedstawia się zyskowność spółki? JŚ: Dotychczas dokonaliśmy piętnastu inwestycji i jak na razie przeprowadziliśmy jeden udany exit, sprzedając spółkę Allani. Trzeba pamiętać, że w odróżnieniu od tradycyjnych przedsiębiorstw, fundusze mają najczęściej z góry określony czas trwania. Najczęściej jest to 6-8 lat. Jako Protos jesteśmy mniej więcej w połowie drogi. Żeby przybliżyć rentowność VC jako klasy aktywów można natomiast odwołać się do danych rynkowych. Średnio fundusze zwracają inwestorom ok. dwukrotności zainwestowanego kapitału, co przekłada się na wewnętrzną stopę zwrotu na poziomie 15-25% rocznie, zależnie od długości horyzontu inwestycyjnego. AR: Tajemnicą poliszynela jest to, że jednym z udziałowców Protos VC jest Robert Lewandowski. Czy obecność znanych celebrytów pomaga w realizacji inwestycji? Wszak jak mawia mądre powiedzenie pieniądze lubią ciszę. JŚ: Robert jest osobą znaną nie tylko w sporcie, ale z racji na swoją aktywność coraz bardziej docenianą także w świecie biznesu. Fani Roberta żywo interesują się wszystkim co robi, a więc również jego działalnością inwestycyjną, co przekłada się tez czasami na Protosa i spółki, w które inwestujemy. W Protosie staramy się chronić prawo naszych inwestorów do prywatności, a informacja z Robertem w tle była wynikiem zwykłej dziennikarskiej dociekliwości i analizy powiązań dostępnych w publicznych rejestrach. Jesteśmy spółką prawa handlowego, więc wiele informacji nie może być utajnionych. AR: Jakie startupy mają największą szansę na uzyskanie waszego finansowania? JŚ: W największym stopniu jesteśmy w stanie pomóc projektom działającym w modelu SaaS i marketplace. Inwestujemy w projekty we wczesnej fazie rozwoju, ale nie w powerpoint companies, oczekujemy od założycieli posiadania MVP, czyli produktu który jeszcze w bardzo uproszczony sposób, ale rozwiązuje pewien problem rynkowy lub adresuje jakąś potrzebę. Ważna przy ocenie
strategie
mensis.pl
potencjału inwestycji będzie także trakcja pozwalająca zweryfikować hipotezy, co do wzrostu i użyteczności produktu, które przewiduje założyciel. W naszych działaniach dużą wagę przywiązujemy do doświadczeń założycieli jako przedsiębiorców. Nie zamykamy się na osoby z małym doświadczeniem, ale wtedy chcemy dużej z nimi popracować w fazie przedinwestycyjnej – zobaczyć w jaki sposób myślą o produkcie, jak reagują na feedback. AR: Jaki będzie rok 2017 dla branży startupów w Polsce? JŚ: Na pewno będzie stał pod znakiem konkursów organizowanych przez PFR, preferujących projekty we wczesnych fazach rozwoju. To może stanowić szansę dla wszystkich przedsiębiorców, którzy stawiają pierwsze kroki w biznesie lub myślą o założeniu własnej firmy. Pieniędzy na rynku powinno być więcej, przez co również wzrośnie konkurencja, ale i pojawiają się na nim nowe talenty, co w ostatecznym rozrachunku jest korzystne dla całej branży – tak funduszy jaki startupów. AR: Dziękuję za rozmowę i życzę dalszych sukcesów.
47
48
mensis.pl
marketing
Kampanie dynamiczne w AdWords – Dynamic Search Ads Krzysztof Marzec
Tworzenie idealnej kampanii AdWords to proces bardzo wymagający, złożony i długotrwały. Jeśli posiadamy duża liczbę produktów w sklepie stoi przed nami ogromna ilość pracy aby poukładać je w trafne grupy reklam, dobrać słowa kluczowe i napisać poprawne teksty reklamowe. Dlatego bardzo dużo kampanii budowanych jest na zasadzie wybrania najważniejszych produktów do kampanii w wyszukiwarce, a cała reszta asortymentu trafia wyłącznie do reklam produktowych ( Shopping Ads). Nie jest to ścieżka idealna, bo wiele ze słów kluczowych, które jednak mogą generować sprzedaż nie powoduje wyświetlania reklam produktowych. Wielu potencjalnych klientów może również klikać w zwykłe reklamy tekstowe ze względu na ich możliwe lepsze położenie w wynikach wyszukiwania. Warto również zwrócić uwagę na to jak wyglądają wyniki wyszukiwania na smartfonach kiedy pojawiają się tam reklamy produktowe. Te wszystkie argumenty oraz główny argument – koszty i przychody oraz budowanie skali działań i zasięgu – podpowiadają, że dobrze by było reklamować wszystkie produkty, cały długi ogon, w kampaniach w wyszukiwarce. Tu z pomocą przychodzi kampania DSA, czyli kampania, która potrafi dobrać słowa kluczowe automatycznie na podstawie treści naszych podstron oraz wygenerować idealne reklamy tekstowe na tej samej bazie.
Prace zaczynamy od utworzenia nowej kampanii, typ: Tylko sieć wyszukiwania, podtyp: Dynamiczne reklamy w wyszukiwarce.
marketing
Następnie podajemy adres reklamowanej witryny. Musi być możliwa do indeksacji przez Google, bo to właśnie na tej podstawie Google pozna co chcemy reklamować i z naszych stron, podobnym mechanizmem do tego znanego z SEO, dobierze słowa i treści do reklam.
TIP: Dodaj partnerów wyszukiwania. Szukamy zasięgu, tanich klików – warto wybrać tę opcję aby osiągnąć lepszy efekt. Wszelkie pozostałe opcje są takie, jak w typowych kampaniach. Nie zapomnijmy o rotacji reklam, ustawieniu stawek, budżetu, wykorzystaniu harmonogramu i pozostałych opcji. W następnym kroku zostaniemy poproszeni o określenie dynamicznych celów reklamy, to moment najważniejszych różnic dla kampanii dynamicznej.
Mamy trzy opcje kierowania reklam. Wybór kategorii zalecanych z listy, wybór wszystkich stron oraz wybór konkretnych stron na podstawie dopasowania. Ostatnia opcja pozwala wybrać strony na podstawie dopasowania Adresu URL, kategorii, zawartości strony oraz tytułu strony.
Jak korzystać z tych opcji?
Najlepiej szeroko i uzupełniająco. Wybierając opcję pierwszą musimy mieć na uwadze, że nie każdy produkt trafi do jakiejś kategorii, może się okazać, że wybór wszystkich nie będzie oznaczał promowania wszystkich produktów. Pamiętajmy też, że opcja reklamy wszystkich stron obejmuje również strony techniczne typu regulaminy, kontakt, poradniki, wpisy na blogu firmowym itp.
mensis.pl
49
50
mensis.pl
Schemat, który proponuję to dywersyfikacja stawek. Zaczynajmy od wyboru kategorii i dostosowania reklam do ich potrzeb. Warto wspomnieć o swoich zaletach, szerokim asortymencie (100+ firm designerskich), cenach i promocjach (Do końca grudnia -50% na płaszcze!). Warto postarać się aby tekst reklamy idealnie pasował do wybranej kategorii. Alternatywą są precyzyjne kampanie dobierane na podstawie np.: adresu URL. Jeśli mój sklep posiada bloga pod adresem adressklepu.pl/blog będziemy mogli w prosty sposób reklamować wszystkie jego treści ale również możemy mocno obniżyć dla nich stawkę.
Dodatkowo jedna kampania z bardzo niską stawką, kierowana na wszystkie podstrony, doskonale uzupełni tę strukturę, a przypadkowe strony nie spowodują dużych strat ze względu na niski budżet kampanii i właśnie niską stawkę.
Reklamy w DSA
Ostatni krok to stworzenie reklam. Te mają nagłówek generowany dynamicznie, również strona docelowa jest wybierana przez system automatycznie. Pozostają nam do napisania dwie linie po 35 znaków oraz napisanie wyświetlanego adresu URL. Podpowiadam, że tu działa stary styl tworzenia reklam. Dobra kampania DSA korzysta z sugerowanych kategorii lub dopasowania do typów produktów tak, aby idealnie dopasować generowane reklamy.
marketing
marketing
Na co uważać w DSA?
Dopasowanie w DSA jest dopasowaniem szerokim, jeśli na stronie wystąpi słowo niebieskie kolczyki dopasowujemy się do tego słowa ale też mogą się pojawić jego odmiany, na przykład z powodu występowania ich w opisie produktu. Możemy liczyć na dużo tanich kliknięć ale często okaże się, że nie będą generowały konwersji. Dlatego najważniejszą praktyką jest stałe sprawdzanie tego co pojawia się w raporcie wyszukiwanych haseł. Generalnie zalecam zbudowanie bardzo szerokiej listy wykluczeń jeszcze przed uruchomieniem kampanii, przy czym to właśnie w raporcie znajdziemy mnóstwo elementów odmian, które koniecznie powinniśmy wykluczyć i zablokować w kampaniach DSA. Od prostych słów typu tani, tanio, które mogą obniżyć konwersję jeśli nie jesteśmy najtańszym sklepem po słowa typu download, darmowy, zdjęcia, instrukcje, które nie będą miały w sobie intencji zakupowej. Drugie działanie jakie stale musimy podejmować to wyławianie z tego samego raportu słów, które świetnie nadają się do stworzenia indywidualnych grup reklam w kampaniach tradycyjnych z większymi stawkami. Takie słowa wykryjemy po tym, że będą powodowały konwersje. Należy uważać na analizę wskaźnika kilkalności CTR do podejmowania takich decyzji. Odnajdziemy słowa z bardzo wysokimi wskaźnikami CTR na poziomie 20-30%, bardzo niską stawką, ale dalsza analiza może równie dobrze pokazać kompletny brak konwersji oraz bardzo wysoki współczynnik odrzuceń. W momencie startu reklamy możemy spodziewać się dużego ruchu, wielu dopasowań. Zanim system sprawdzi na jakie słowa warto wyświetlać nasze reklamy, a gdzie nie dało to efektu w postaci kliknięć może upłynąć trochę czasu. Polecam również stosować bardzo niskie stawki oraz niskie budżety dzienne aby mieć czas na optymalizację i analizę słów wykluczających nie „przepalając” swojego budżetu. Sprawdź te listę aby być pewnym, że robisz kampanie dobrze: 1. Dla zasady stosuj jedną kampanię DSA na dany język. Język na jaki reklamujemy stronę powinien pasować do języka strony. 2. Często analizuj raport wyszukiwanych haseł oraz raport kategorii – tam dbaj o idealny dobór stawek. 3. Przetestuj strategię ROAS, a jeśli zależy Ci na ruchu – stawki automatyczne. 4. Uważasz, że za wcześnie na rozliczenia CPA czy ROAS? Przetestuj w takim razie eCPC.
mensis.pl
51
5. Wyklucz ten ruch, który uważasz za śmieciowy – strony (na bazie adresu, tytułu, treści) oraz zdefiniuj wykluczające słowa kluczowe. 6. Nie zapominaj o rozszerzeniach reklam, przetestuj nowości – rozszerzenie cen czy rozszerzenie wiadomości tekstowych. TIP: Czy na pewno chcesz reklamować wszystkie produkty? Jeśli jakiś produkt kosztuje 5zł i nie sprzedajesz go hurtowo ani nie powoduje zwiększenia wartości średniego koszyka to policz ile zarobisz i jaki musiałby być koszt kliknięcia aby przy konwersji na poziomie 0,5%-2% się to zwróciło. W wielu sklepach duża ilość produktów nie nadaje się do reklamy. Powodami są ich ceny, fakt, że mamy je drogo, brak zdjęcia czy opisu czy słaba dostępność.
,,
Drugie działanie jakie stale musimy podejmować to wyławianie z tego samego raportu słów, które świetnie nadają się do stworzenia indywidualnych grup reklam w kampaniach tradycyjnych z większymi stawkami. Takie słowa wykryjemy po tym, że będą powodowały konwersje. Należy uważać na analizę wskaźnika kilkalności CTR do podejmowania takich decyzji. Odnajdziemy słowa z bardzo wysokimi wskaźnikami CTR na poziomie 20-30%, bardzo niską stawką, ale dalsza analiza może równie dobrze pokazać kompletny brak konwersji oraz bardzo wysoki współczynnik odrzuceń.
52
marketing
mensis.pl
DSA a Wynik Jakości
Warto pamiętać o tym co stanowi bazę systemu aukcyjnego i jak Google oblicza ranking reklamy. Zależy on od trzech czynników: przewidywanego współczynnika klikalności, trafności reklamy oraz oceny jakości strony docelowej. W reklamach DSA słowa kluczowe są dobierane automatycznie do idealnej strony docelowej. Warto obserwować te zależności. Nie raz zdarzyło się mi obserwować, że system docenił inne miejsce docelowe niż się spodziewałem. Dalsze testy pokazywały, że nawet jeśli współczynnik konwersji nie był idealny, to wysoki Wynik Jakości powodował niskie stawki CPC. Kilka ulepszeń na stronie i okazywało się, że to nie strona kategorii konwertuje lepiej a właśnie poradnik na blogu napisany wiele miesięcy temu. To drugie miejsce docelowe zdobyło Wynik Jakości 10/10 i dużo niższą stawkę za klikniecie.
Podsumowanie
Kampanie DSA to świetny sposób na promowanie długiego ogona produktów w sposób szybki i nie wymagający pliku danych z Merchant Center (choć widywałem kampanie, gdzie DSA korzystała z danych z GMC). Poszerza to zasięg (dla przykładu w reklamach produktowych nie promujemy stron kategorii, wyników wyszukiwania czy poradników lub bloga) oraz pozwala na pojawianie się na raz w dwóch miejscach wyników wyszukiwania, uzupełniając reklamy produktowe. Stała optymalizacja pozwala ulepszać wynik, ale staje się dla nas też ogromną kopalnią inspiracji i nowych słów kluczowych. Nie bez powodu kampanie DSA stosowane są przez wielu specjalistów jako swoisty wykrywacz nisz, które obfitują w niskie stawki oraz wysokie poziomy konwersji.
Na koniec: jeden trik, który może zmienić wynik kampanii
Jeśli chcemy osiągać idealne efekty warto połączyć DSA z RLSA – czyli wykorzystać listy remarketingowe dla sieci wyszukiwania w połączeniu z bardzo szerokim kierowaniem reklam. Użytkownik, który był już na naszej stronie, zna naszą markę, załóżmy że kupował już u nas a teraz szuka w Google czegoś innego, nawet kompletnie innej kategorii produktów, których typowo nie reklamujemy. W efekcie szerokiego zasięgu DSA zobaczy naszą reklamę, a wykorzystanie listy remarketingowej pozwoli nam na dostosowanie stawek tak, aby zwiększyć szanse, że trafi właśnie do nas. WordStream w analizie z sierpnia 2016 roku prezentuje niemal dwukrotnie wyższe CTR w kampaniach RLSA+DSA oraz współczynniki konwersji sięgające 4% w odróżnieniu od 1,5% w kampanii tradycyjnej. W wielu własnych kampaniach widzimy potwierdzenie zasady - powracający użytkownik jest wart więcej, niż nowy. TIP: Czy wiesz, że w sieci wyszukiwania możesz użyć kierowania demograficznego? Zdecyduj jaki odbiorca (płeć, wiek) będzie dla Ciebie najlepszy i wyklucz tych, do których nie warto docierać. Solidnych danych na ten temat dostarczą Ci raporty konwersji oraz Google Analytics.
Krzysztof Marzec Certyfikowany Trener Google
AdWords - prowadzi szkolenia m.in.
w ramach Akademii Google Partners. Współwłaściciel agencji DevaGroup.
marketing
mensis.pl
53
Rozwiązania Marketing Automation dla Ecommerce Maja Kowalska
Ecommerce to branża jednocześnie stara i nowa. Łączy w sobie jedną z najstarszych aktywności naszej cywilizacji, czyli handel z bardzo młodym środowiskiem cyfrowym. Rozmiar tego zjawiska jest ogromny i rośnie z roku na rok. Porównując - w 2016 roku całkowita sprzedaż detaliczna osiągnęła pułap 22,05 bln USD, z czego 8,7% stanowiły przychody z ecommerce (1,92 bln USD), natomiast prognozy na 2020 rok przewidują, że udział przychodów z ecommerce w tej puli wzrośnie do 14,6% (emarketer.com). Na popularność tego kanału wymiany dóbr i usług składa się kilka czynników. Po pierwsze, niezaprzeczalną zaletą przeniesienia biznesu do sieci jest praktycznie nieograniczony zasięg. Dużo łatwiej dotrzeć do dowolnej osoby w środowisku, którego istotą jest przesył informacji. Jeden klik i każdy może zobaczyć Twoją ofertę. A pomyśl teraz, że miałbyś to wszystko załatwić ulotkami, billboardami i reklamą w mass mediach... Nakład pracy i koszty byłyby nieporównywalnie wyższe. Drugim aspektem działającym na korzyść handlu w sieci jest jego globalność. Tylko tyle i aż tyle liberalny Internet praktycznie nie zna granic administracyjnych. W dzisiejszych czasach nie jest niczym niespotykanym zamawianie towarów z odległych zakątków świata, na przykład kosmetyków z Japonii, czy t-shirtów ze Stanów.
Trzecią cechą stanowiącą o sile ecommerce jest znaczne obniżenie kosztów w porównaniu z prowadzeniem przybytku stacjonarnego. Znikają koszty wynajmu przestrzeni sklepowej czy zatrudnienia obsługi. Na dobrą sprawę, małego ecommerce’a jesteś w stanie prowadzić sam ze swojego salonu. Wystarczy komputer, dostęp do internetu i trochę miejsca w małym pokoju. Z punktu widzenia nabywcy dodatkową korzyścią jest również poczucie kontroli nad całym procesem decyzyjno-zakupowym i oczywiście fakt, że wszystkie sklepy, których oferty dany nabywca chce porównać znajdują się w jednym miejscu. Jak łatwo można się domyślać, sklepy online napotykają na swojej drodze różne charakterystyczne dla branży problemy, w tym takie, które są powiązane
54
mensis.pl
marketing
z różnymi aspektami marketingu cyfrowego. Wiele z nich można rozwiązać przy pomocy platformy do automatyzacji marketingu połączonej z systemem do zarządzania relacjami z klientami (CRM). Wspomniane problemy można podzielić na 3 obszary: strona www, baza kontaktów i email marketing. Wprowadzenie zmian w tych dziedzinach ma z kolei bezpośredni wpływ zarówno na efekty jak i wydajność działów sprzedaży i marketingu.
Strona www Jednym z podstawowych narzędzi do prowadzenia ecommerce jest strona internetowa, na której potencjalni klienci mogą znaleźć oferowane towary i usługi i przez którą mogą się skontaktować ze sprzedawcą. Strony są różne - profesjonalne, amatorskie, estetyczne, kiczowate, brzydkie i ładne. Koniec końców, najważniejszym podziałem i tak będzie ten: skuteczna i nieskuteczna. O skuteczności danej strony świadczy przede wszystkim jej zdolność do zatrzymania odwiedzających, skłonienia ich do pozostawienia danych i, oczywiście, przekonania ich do zakupu. Samo przyciągnięcie odwiedzających na stronę wiąże się z wykorzystaniem szeregu chwytów i działań z zakresu SEO, SEM, marketingu w social media, czy reklamą w sieciach RTB. Co jednak z nimi robić kiedy już odwiedzą witrynę?
Po pierwsze należy zadbać o zatrzymanie kontaktu na stronie sklepu. Co z tego, że ludzie klikają w reklamę na Facebooku, przeglądają artykuł i znikają ze strony na zawsze? Jako osoba odpowiedzialna za wydawanie marketingowych złotówek, powinieneś zadbać o to, żeby je jak najlepiej ulokować i jak najlepiej wykorzystać ich potencjał. Jest kilka mechanizmów ułatwiających utrzymanie uwagi użytkowników. Najbardziej znanym z nich jest silnik rekomendacji pozwalający z poziomu platformy marketing automation tworzyć i wyświetlać na stronie ramki z poleceniami nawet anonimowym użytkownikom. Jego wielką zaletą jest to, że działa w czasie rzeczywistym – oglądasz przedmioty z jednej kategorii i od razu widzisz ofertę rzeczy podobnych, będących w promocji lub komplementarnych Mechanizm poleceń wykorzystuje ogromną ilość zmiennych – od zainteresowań, przez okres trwałości, po zachowanie innych użytkowników, którzy go nabyli.
Oglądając dany kosmetyk widzisz również zestawy, w których możesz go zamówić oszczędzając pieniądze. Źródło: http://www.yves-rocher.pl/
marketing
Po drugie warto przekuć spory ruch w bardziej wymierne korzyści - co z tego, że przez stronę przewijają się codziennie dziesiątki tysięcy odwiedzających, jeżeli nic po nich nie zostaje? Kolejnym krokiem, po przyciągnięciu i zatrzymaniu kontaktu na stronie jest przekonanie go do pozostawienia danych kontaktowych. Świetnym narzędziem do tego celu są personalizowane banery i dynamiczne pop-upy.
mensis.pl
55
Z kolei dynamiczne pop-upy na podstawie wiedzy o zainteresowaniach użytkownika, jego scoringu, historii zakupów a nawet podstrony na której się aktualnie znajduje pozwalają wyświetlać każdemu z osobna treści nawiązujące do tego co robił, lub nadal robi na stronie. Dzięki nim jesteś w stanie wygenerować o 45% więcej leadów niż na stronie bez pop-upa, a w porównaniu z pop-upem statycznym, ten dynamiczny jest w stanie wygenerować o 38% więcej leadów (dane SALESmanago Marketing Automation).
Większości z nas baner kojarzy się ze zmienianym okresowo obrazkiem wrośniętym w krajobraz sklepu online. Nic bardziej mylnego! Ten niepozorny prostokąt może wyświetlać treść dostosowaną zarówno do zainteresowań użytkownika, jego zaangażowania bądź etapu lejka sprzedażowego, na którym się obecnie znajduje. Doskonale nada się do gratyfikacji użytkowników (możne wyświetlać rabaty dla najbardziej zaangażowanych klientów, gratisy dla osób, które robią duże, lub drogie zakupy), kampanii win-back (można go wykorzystać do wyświetlania Jeżeli przeglądasz intensywnie oferty związane z jakimś krajem, to później wyświetli Ci się popspecjalnych ofert i zniżek -up z odpowiednim zdjęciem i propozycją przedstawienia indywidualnej oferty. osobom, które od dawna nie Źródło: http://r.pl/ robiły zakupów, by zachęcić je do skorzystania z oferty), czy profilowania grupy odbiorców (można na nich przeprowadzić testy A/B/X, i dzięki temu wychwycić trendy zachowań i preferencji wśród odwiedzających stronę, a także pomagają Buyer Persony).
56
mensis.pl
Baza danych W momencie kiedy kontakt staje się leadem, automatycznie trafia do bazy adresowej. Jej jakość również ma wpływ na skuteczność Twoich działań. Przede wszystkim posiadając leady wysokiej jakości (duża ilość poprawnych, dobrowolnie podanych danych, uzyskanych od osób potencjalnie zainteresowanych zakupem) oszczędzasz czas i optymalizujesz alokację zasobów. Mówiąc prościej: nawet jeśli wydasz więcej pieniędzy na pozyskanie konkretnego leada, to ostatecznie koszt konwersji będzie zdecydowanie niższy niż przy bazie pełnej nieprawdziwych adresów, pracowników konkurencji i osób, które pobrały materiały, żeby je wykorzystać do referatu na studiach. Nie przesadzając, baza danych to jeden z kluczowych kapitałów nowoczesnego przedsiębiorstwa. Warto dbać o jej higienę. 25% adresów w Twojej bazie traci aktualność w skali roku, i jest to zupełnie naturalny proces: ludzie zmieniają pracę, zakładają nową skrzynkę, albo zwyczajnie tracą zainteresowanie ofertą. Dla własnego dobra raz na jakiś czas pozbywaj się nieaktywnych kontaktów. Raz na rok przeprowadź kampanię typu win-back, reaktywującą osoby, które dawno nie pojawiły się na stronie. Tych, którzy na nią nie zareagują, usuwasz z bazy. Jeżeli o to nie dbasz, Twoja baza przestaje być wiarygodna, a obserwowany przyrost kontaktów – pozorny. Wykorzystaj platformę do automatyzacji marketingu, do posegmentowania bazy (skorzystaj z reguł automatyzacji dodających właściwy tag do kontaktów które nie wykazały aktywności od dłuższego czasu). Również dzięki platformie łatwo zmierzysz reakcje na wiadomości i wychwycisz osoby, które nie zareagowały.
marketing
Drugą sprawą jest to jak prosisz o informacje. Ciężko wymagać, żeby nowo przybyły od razu podał Ci imię, nazwisko, numer telefonu, datę urodzin, i rozmiar spodni. Osoba, która pojawia się na stronie po raz pierwszy raczej nie wie, czym zajmuje się firma. To normalne, że nie chce podawać szczegółowych danych. Jeśli pozwolisz mu pobrać materiały w zamian za adres email, jest szansa, że temat zainteresuje go na tyle, że wróci po więcej. Kiedy ten sam użytkownik wraca już po trzeciego ebooka, pora poprosić go o więcej szczegółów, bo prawdopodobnie dojrzał już do „rozmowy”. Taki mechanizm nazywa się profilowaniem progresywnym i polega na dostosowaniu kształtu formularza do użytkownika: jego zaangażowania, zainteresowań, czy ilości wizyt. Ręczne przygotowanie i implementacja licznych formularzy to zajęcie żmudne i obarczone niebezpieczeństwem błędu ludzkiego. Na szczęście systemy Marketing Automation pozwalają pójść o krok dalej i dynamicznie generować formularze na stronie w zależności od tego, kto aktualnie się na niej znajduje.
Email marketing Tworzenie bazy kontaktów służy konkretnym celom, czyli prowadzeniu dialogu z odbiorcami. Wiadomości elektroniczne to jeden z najpopularniejszych kanałów marketingowych. Powód takiego stanu rzeczy jest prosty - maile są powszechne, popularne i mają nieograniczony wręcz zasięg. Mimo to ich skuteczność niestety maleje. Wskaźniki otwarć wiadomości masowych obniżyły się 4-krotnie w ciągu ostatnich 5 lat. Tradycyjne newslettery tracą na znaczeniu i sile oddziaływania, ponieważ klienci oczekują bar-
marketing
dziej spersonalizowanej komunikacji. I nie mówię bynajmniej o dodaniu imienia w nagłówku, czy dopasowanie formy czasowników do płci odbiorcy. Takie działania jedynie markują personalizację i zrażają odbiorców. Prawdziwa personalizacja to podjęcie działań dla maksymalnego dopasowania kształtu, kanału oraz czasu dostarczenia wiadomości do preferencji, nawyków, demografii oraz konkretnej sytuacji danego klienta, a to możliwe jest dzięki wykorzystaniu i przetworzeniu Big Data przy użyciu platformy do automatyzacji marketingu. Klienci poruszając się po stronie wykonują szereg akcji pozwalających dodać kilka pozycji do listy „co wiem o tej osobie”. Każdy przejrzany towar, kliknięty przycisk, porzucony formularz, czy niezrealizowany koszyk zakupowy dają całkiem solidne podstawy do wysłania wiadomości mającej znaczenie i działającej na wyobraźnię tej konkretnej osoby. Przykładowo, jeśli klient oglądał produkty A, B i C, po czym rozmyślił się i opuścił stronę, wyślij mu w wiadomości zamiast losowo wybranej oferty dokładnie te produkty, które przyciągnęły jego uwagę. W momencie kiedy przekroczy próg w programie lojalnościowym, wyślij wiadomość z informacją oraz pokaż, jaką korzyść mógłby za to otrzymać. W dniu urodzin, podaruj mu emailem drobny upominek (zniżka, darmowa dostawa). A jeśli obejrzy jakiś materiał (np. pobierze ebooka dotyczącego problemu X) zaproś go do udziału w webinarze na ten temat. Dodatkową korzyścią z wykorzystania Marketing Automation w email marketingu jest wytworzenie synergii między kanałami. Stosowanie email marketingu jako osobnego narzędzia znacznie ogranicza Twoje
mensis.pl
57
możliwości. O ile skuteczniej możesz prowadzić dialog z odbiorcą tworząc maile z wykorzystaniem wiedzy o jego zachowaniu w innych kanałach! Jak już wspomniałam, zastosowanie tych działań będzie miało wymierny wpływ zarówno na efektywność działu marketingu, jak i wyniki działu sprzedaży. Wdrożenie platformy daje marketingowcom dużo lepszą kontrolę nad wydawaniem budżetu promocyjnego, pozwala ustalić realny system KPI, wykorzystać wiedzę o zachowaniu użytkowników w różnych kanałach i wdrożyć zaawansowanie działania omnichannelowe. Dodatkowo ułatwia integrację między nimi a reszta firmy i zmienia postrzegania działu marketingu z typowo kosztowego na dział generujący przychód dla firmy. Z kolei dla działu sprzedaży wprowadzenie platformy oznacza przede wszystkim optymalizację procesu sprzedażowego ze względu na lepszą jakość leadów i ich lepszą edukację. W praktyce wiąże się to ze skróceniem procesu zakupowego przy równoczesnym podniesieniu wartości klienta w czasie.
Maja Kowalska Content Manager SALESmanago
58
marketing
mensis.pl
Źródło: dlasprzedajacych.allegro.pl/zdjęcia (29.01.2017)
Zdjęcia na Allegro – nowe zasady tworzenia miniaturek Dr Maciej Dutko
1 lutego 2017 weszły w życie nowe standardy obowiązujące sprzedawców przy tworzeniu zdjęć głównych w ofertach Allegro. Wszystko, co nowe w tym serwisie, od zawsze budzi kontrowersje. W tym przypadku zmiany mają jednak znaczenie strategiczne: sprzedawcy, którzy dostosują się do nowych reguł gry, mogą liczyć na to, że „trafność” Allegro bardziej polubi ich oferty, windując je wyżej w listingach.
Wprowadzenie nowych zasad Allegro ogłosiło w połowie 2016 roku. Zmiany dotyczą wyłącznie miniaturek, czyli zdjęcia głównego; w obrębie oferty wciąż można wstawiać obrazy przygotowane według własnej koncepcji i finezji.
Po jakiego grzyba kolejne zmiany i utrudnienia?
Która z poniższych miniatur jest bardziej profesjonalna: pierwsza, z wieloma kolorami, dodatkowym tekstem, pomniejszonym wizerunkiem produktu oraz logotypem sprzedawcy, czy druga, z wyrazistym produktem, jednolitym neutralnym tłem i bez dodatkowych elementów tekstowych i graficznych?
Opracowanie własne Prawda, że pytanie było retoryczne? Sprzedawcy Allegro od zawsze skarżyli się na niedobór miejsca w polu tytułu, w którym zmieścić można zaledwie 50 znaków. Nie da się więc upakować tu wszystkiego, co chcielibyśmy zakomunikować klientom; ale i nie temu celowi służy tytuł. Część istotnych
marketing
informacji, ale niebędących wartościowymi słowami kluczowymi, przerzucano więc do grafiki głównej, będącej zarazem miniaturą oferty widoczną w listingach. Ba! Przez kilka ostatnich lat w ramach audytowania ofert sprzedażowych sam wielokrotnie podpowiadałem takie rozwiązanie moim klientom, którzy część strategicznych informacji przerzucali właśnie do miniaturki. I dobrze, jeśli tylko było to robione z głową; sęk w tym, że większość miniatur wyglądała jednak jak choinki, obwieszone czym tylko się da. Dlatego podstawą oficjalnego stanowiska Allegro jest troska o poprawę jakości zdjęć produktowych:
mensis.pl
59
Zmiany ze strony Allegro
Co objęła zmiana filozofii Allegro w odniesieniu do miniaturek? Jest tego trochę: •
•
•
umożliwienie wstawiania zdjęć o większym rozmiarze (do 2560 x 2560 pikseli), aby kupujący wyraźniej mogli zobaczyć produkt, możliwość zmiany miniaturki w trwającej ofercie, bez konieczności wystawiania jej od nowa i tracenia punktów przyznawanych przez „trafność” m.in. za staż i dotychczasową skuteczność oferty, opcja wystawiania ofert wielowariantowych, • rozpoczęcie cyfrowego zabezpieczania zdjęć przed kopiowaniem (w miejsce starego, mało skutecznego i nieestetycznego podpisywania znakiem wodnym), • zwiększenie znaczenia dobrej miniatury w algorytmie „trafności” oraz w przyznawaniu Standardu Allegro.
Co musisz zmienić?
Po stronie sprzedającego pozostaje dostosowanie ofert do nowych wymogów. Ich niespełnienie od lutego 2017 może skutkować ostrzeżeniem, a następnie usunięciem oferty. Najważniejsze z nowych zasad:
Źródło: dlasprzedajacych.allegro.pl/zdjęcia (29.01.2017) Trudno nie zgodzić się z taką racją stanu. Tym bardziej, że tendencję do stosowania „czystych” zdjęć widać już u zagranicznych konkurentów, jak Amazon, Alibaba czy eBay. Z drugiej jednak strony podnosi się szum krytycznych głosów. Sprzedawcy posiadający tysiące wystawionych ofert protestują, przerażeni skalą pracy, jaka ich czeka, aby dostosować je wszystkie do nowych reguł gry. Zastanawiający jest też zakaz umieszczania logotypów, który nie dotyczy wszak sprzedawców ze Strefy Marek. O ile jednak zrozumiała jest troska o ochronę cudzych znaków firmowych, o tyle martwi zakaz eksponowania własnej marki sprzedawcy, co przecież jest sprzeczne z elementarnymi założeniami brandingu.
•
• • • • • •
• jednolite białe tło (acz z licznymi wyjątkami: https://faq.allegro.pl/artykul/115109/ jakich-ofert-nie-dotyczy-obowiazek-bialego-tla-miniatur), w części kategorii dozwolone jest stosowanie zdjęć kontekstowych (w realnym użyciu) i aranżacyjnych – można na przykład przedstawić meble w pomieszczeniu, rośliny w ogrodzie, obraz na ścianie itp., zakaz stosowania dodatkowych elementów tekstowych, zakaz zamieszczania logotypów (zarówno marki producenta, jak i sprzedawcy), wyłącznie jeden wariant (np. kolorystyczny) produktu na zdjęciu, zakaz zdjęć odzieży na manekinie (nie dotyczy produktów ze statusem „używane”), brak znaków wodnych, brak innych elementów graficznych: znaków, piktogramów, ramek, infografik itp.
60
marketing
mensis.pl
Nowe miniatury a ocena „trafności” Allegro
Wspomniałem, że nowe zasady zostały ogłoszone w połowie 2016, a w życie weszły 1 lutego 2017 – te pół roku miało pozwolić sprzedawcom na sukcesywne dostosowywanie swoich ofert. Co ciekawe jednak, ci, którzy zrobili to wcześniej, wcześniej też zanotowali szybsze pięcie się w górę na listingach. Już bowiem od października 2016 Allegro włączyło nowy standard miniatur do algorytmu „trafności”. Tym samym uczyniono go jednym z głównych elementów wpływających na pozycję oferty. Znamienne jest, że już podczas cyklu szkoleń „E-biznes do Kwadratu”, jakie prowadziłem w październiku i listopadzie, ci e-sprzedawcy, którzy zastosowali zmiany, faktycznie sygnalizowali wyraźne wzrosty, ci zaś, którzy z tym zwlekali, notowali spadki pozycji ofert i – w efekcie – sprzedaży. Praktyka potwierdziła więc, że miniatura w nowej formie, mocno rzutuje na widoczność oferty i jej skuteczność. Warto więc znać i wdrażać nowe zalecenia, aby nie zostać poza radarem „trafności” i samych kupujących.
Dr Maciej Dutko przedsiębiorca, Certyfikowany Wykładowca Allegro, autor kilkunastu książek (m.in. „Targuj się! Zen negocjacji”, „Efekt tygrysa”). Pomysłodawca i koordynator najważniejszej książki w polskim e-commerce „Biblia e-biznesu”. Wykładowca w uczelniach biznesowych w całym kraju (studia podyplomowe i MBA). Twórca autorskiego szkolenia „E-biznes do Kwadratu”. Felietonista Onet.pl (do 2015) oraz Mensis.pl. Właściciel Grupy Dutkon. pl; w jej skład wchodzą m.in.: AkademiaInternetu.pl (blog i szkolenia dla e-biznesu), Audite.pl (poprawa skuteczności sprzedażowej ofert), Korekto.pl (firma edytorska), e-sklep RepublikaWiedzy.pl. Przez serwis WhitePress.pl uznany za jedną ze 100 najbardziej inspirujących osób polskiej branży interaktywnej.
rubryki stałe
mensis.pl
61
Rejestracja zbiorów danych osobowych, a rejestracja ABI – wszystko co musisz wiedzieć o ochronie danych osobowych w Twojej firmie. Jakub Szajdziński
Każdy przedsiębiorca, który przetwarza dane osobowe osób fizycznych zobowiązany jest do ich przetwarzania w zgodzie z obowiązującym porządkiem prawnym, to pewne. Często jednak przedsiębiorcy nie wiedzą lub nie odróżniają sposobów na zgodne z prawem uregulowanie przetwarzania danych osobowych w swojej firmie. Ustawodawca przewidział dwojaki sposób na uregulowanie tego zagadnienia. Sposoby dopuszczone przepisami prawa są zgoła odmienne i w zależności o woli przedsiębiorcy mogą w pełni zaangażować go w ochronę danych osobowych lub całkowicie „wyoutsourcować” obowiązki jakie wynikają z ustawy. Rejestracja zbiorów danych osobowych u Generalnego Inspektora Ochrony Danych Osobowych. Jest to tradycyjny sposób uregulowania ciążącego na przedsiębiorcy obowiązku. Według tej możliwości Administrator danych osobowych (ADO), a więc podmiot, który faktycznie przetwarza dane osobowe w jakimś określonym celu i na własny użytek, musi zadbać o to, aby dane te przetwarzane były w zgodny z prawem sposób. Według ustawy o ochronie danych osobowych ADO musi przede wszystkim dokonać rejestracji zbiorów danych osobowych u Generalnego Inspektora Ochrony Danych Osobowych (GIODO). Zbiory rejestruje się za pomocą właściwych formularzy, a sam wniosek może zostać złożony w biurze podawczym lub przesłany do GIODO pocztą lub też złożony w formie elektronicznej. Zbiory danych rozróżniane są ze względu na cel w jakim dane są przetwarzane, a każdy zbiór powinien mieć odróżniającą go nazwę. Poza zgłoszeniem wniosku, w przypadku przetwarzania danych osobowych z użyciem systemów informatycznych, w tym urządzeń z połączeniem do internetu, Administrator danych osobowych musi wprowadzić określone procedury związane z przetwarzaniem danych osobowych. Procedury o których mowa powyżej zawierają się w Polityce bezpieczeństwa informacji oraz Instrukcji zarządzania systemem informatycznym. Same dokumenty o których mowa powyżej wymagane są przez Rozporządzenie Ministra Spraw Wewnętrznych i Administracji z dnia 29 kwietnia 2004 r. w sprawie dokumentacji przetwarzania danych osobowych oraz warunków technicznych
i organizacyjnych, jakim powinny odpowiadać urządzenia i systemy informatyczne służące do przetwarzania danych osobowych. Poza wspomnianym koniecznym jest prowadzenie ewidencji osób upoważnionych do przetwarzania danych osobowych, a nad całą firmą piecze powinien sprawować wyznaczony Administrator Bezpieczeństwa Informacji (ABI) – którego w przypadku tego trybu nie należy mylić z tzw. zewnętrznym ABI o którym będzie mowa w dalszej części. Funkcję ABIego w przypadku mniejszych, jednoosobowych działalności może pełnić sam przedsiębiorca, będący jednocześnie Administratorem danych osobowych. Administrator Bezpieczeństwa Informacji to osoba która faktycznie zajmuje się ochroną danych w firmie i przestrzega procedur wprowadzonych Polityką bezpieczeństwa oraz Instrukcją zarządzania systemem informatycznym. Konsekwencje rejestracji zbiorów danych u GIODO. Jeżeli przedsiębiorca dokona zgłoszenia zbioru danych do rejestracji we własnym imieniu, to on będzie fizycznie odpowiedzialny za prawidłowość przetwarzania danych osobowych w swojej firmie. W praktyce oznacza to, że jeżeli sam przedsiębiorca lub jego pracownik dopuści się naruszenia przepisów, to sąd przy udziale GIODO będzie mógł wyciągnąć konsekwencje bezpośrednio przeciwko niemu. Takiego stanu rzeczy nie zmieni nawet wyznaczenie w obrębie firmy
62
rubryki stałe
mensis.pl
Administratora Bezpieczeństwa Informacji, bowiem ADO będzie za niego odpowiadał, taka jak za każdego z pracowników. Dla kogo jest samodzielne zgłoszenie zbioru danych osobowych? Samodzielne prowadzenie dokumentacji związanej z ochroną danych osobowych, a także bezpośrednia odpowiedzialność za przetwarzanie danych osobowych wskazana jest dla mniejszych firm. Szczególnie dla firm zatrudniających niewielu pracowników i firm u których nie ma potrzeby zatrudniania Administratora Bezpieczeństwa Informacji jako wyszczególnionego pracownika, którego zadaniem w firmie będzie tylko i wyłącznie funkcja ABI. Rejestracja Administratora Bezpieczeństwa Informacji. Rejestracja ABI jest alternatywą do rejestracji zbiorów danych osobowych u GIODO przez Administratorów danych osobowych, a sama instytucja wynika z próby uproszczenia prowadzenia działalności zaproponowanej przez ustawodawcę kilka lat temu. Według ustawy o ochronie danych osobowych Administrator Danych Osobowych może powołać Administratora Bezpieczeństwa Informacji, który będzie bezpośrednio odpowiedzialny za przetwarzanie danych przez konkretnego ADO. Zgłoszenie ABI do GIODO powinno nastąpić najpóźniej w terminie 30 dni od jego powołania. Co ważne osoba, która ma pełnić funkcje ABI musi według przepisów ustawy mieć pełną zdolność do czynności prawnych oraz korzystać z pełni praw publicznych, ponadto musi posiadać odpowiednią wiedzę w zakresie ochrony danych osobowych, a także nie może być karana za umyślne przestępstwo. Do zadań administratora bezpieczeństwa informacji należy zapewnianie przestrzegania przepisów o ochronie danych osobowych, w szczególności przez sprawdzanie zgodności przetwarzania danych osobowych z przepisami o ochronie danych osobowych oraz opracowanie w tym zakresie sprawozdań dla administratora danych, nadzorowanie opracowania i aktualizowanie dokumentacji, zapewnianie zapoznania osób upoważnionych do przetwarzania danych osobowych z przepisami o ochronie danych osobowych a także prowadzenie rejestru zbiorów danych przetwarzanych przez Administratora danych osobowych. Administrator bezpieczeństwa informacji podlega bezpośrednio kierownikowi jednostki organizacyjnej
lub osobie fizycznej będącej Administratorem danych osobowych. Konsekwencje zgłoszenia Administratora Bezpieczeństwa Informacji. W przeciwieństwie do zgłoszenia zbioru danych do rejestracji, zgłoszenie ABI do GIODO pociąga za sobą konsekwencje przede wszystkim w stosunku do samego Administratora Bezpieczeństwa Informacji. Od momentu zgłoszenia jest on bezpośrednio odpowiedzialny za poprawność przetwarzania danych osobowych, czy też prowadzenie zbiorów danych osobowych w danym przedsiębiorstwie (u konkretnego Administratora danych osobowych). W przypadku kontroli ze strony GIODO lub w przypadku stwierdzenia jakichkolwiek nieprawidłowości to właśnie ABI będzie ponosił bezpośrednią odpowiedzialność za ewentualne nieprawidłowości. Dla kogo rejestracja Administratora Bezpieczeństwa Informacji? Rejestracja Administratora Bezpieczeństwa Informacji do GIODO wskazana jest szczególnie wśród tych firm, które przetwarzają dane osobowe w wielu zbiorach o różnych celach w jakich dane te są przetwarzane. Warto również pomyśleć o zewnętrznym ABI jeżeli firma zatrudnia powyżej przynajmniej 20 osób, które fatycznie zajmują się przetwarzaniem danych osobowych np. dotyczących klientów firmy. Przy takiej liczbie pracowników, kwestie związane z prawidłową ochroną danych osobowych stają się na tyle pracochłonne, że osoba fizycznie odpowiedzialna za same procedury może potrzebować czasu wyłącznie na sprawy związane właśnie z ochroną danych osobowych. Oczywiście w tym względzie wiele zależy od finansów jakie dany przedsiębiorca chce przeznaczyć na zagadnienia związane z ochroną danych osobowych, dużo więc zależy w tym względzie właśnie od tego czynnika. Warto w tym miejscu przypomnieć, że oszczędność i brak powołania zewnętrznego ABI może być fikcyjna, przez wzgląd na czas jaki poświęci się na studiowanie przepisów o ochronie danych, a nie faktyczny rozwój firmy.
JAKUB SZAJDZIŃSKI Partner Zarządzający
ENSIS Kancelaria Doradztwa Prawnego Cioczek & Szajdziński Spółka Cywilna
rubryki stałe
mensis.pl
63
Chmura obliczeniowa, a serwer dedykowany. Jak porównać nieporównywalne??
Jola Uździcka
Przyzwyczajeni jesteśmy do serwerów dedykowanych, ale nie jesteśmy jeszcze przyzwyczajeni do chmury, a dokładnie do infrastruktury w chmurze (ang. IaaS). Zazwyczaj jest tak, że nową technologię chcemy porównać z technologią, która jest nam bardziej znana. Po co? Aby ustalić przede wszystkim istotne różnice, które mogą wpłynąć na zapewnienie nam lepszej jakości w użytkowaniu lub poprawę efektywności realizacji procesów. Innym powodem porównania jest utwierdzenie samego siebie w przekonaniu, że dotychczas stosowane rozwiązanie jest dobre i wystarczy – tym samym nie ma co się porywać na „nowinki”. Dostępnych jest coraz więcej opracowań, w których rozwiązanie typu serwer dedykowany porównywane jest do chmury. Tylko jak porównać nieporównywalne??
Serwer dedykowany i chmura… podobni jak dwie różne krople wody Chmura obliczeniowa to z definicji coś więcej niż serwer dedykowany. Chmura Sinersio, bo na niej się oprzemy w porównaniu, to model WIRTUALNEGO DATA CENTER, na które składają się m.in.: serwery, macierze, możliwość zarządzania infrastrukturą sie-
ciową, router, firewall, licencje, itp. Jednym słowem – kompleksowość. Jak do tej usługi przyrównać usługę wynajęcia pojedynczego serwera dedykowanego? Gdyby ten serwer był w klastrze niezawodnościowo-wydajnościowym, to wtedy zbliżylibyśmy się do parametrów rozwiązania w chmurze. Ale do pojedynczego serwera dedykowanego na pewno nie.
64
rubryki stałe
mensis.pl
Kiedy najlepiej sprawdza się serwer dedykowany, a kiedy chmura ? Podstawą decyzji czy wybrać serwer dedykowany czy infrastrukturę w chmurze (ang. IaaS), powinna być przede wszystkim wiedza do jakich celów ma być ona wykorzystana. Serwery dedykowane najczęściej mają zastosowanie np. dla niewymagających stałej dostępności aplikacji WEB, dla środowisk testowych czy deweloperskich o stosunkowo niskim poziomie wymaganej dostępności. Natomiast infrastrukturę w chmurze najlepiej wybrać dla aplikacji i systemów wymagających wysokiej dostępności, jak np. systemy ERP, CRM, DMS, WMS, systemy e-commerce oraz inne aplikacje. Przeznaczenie infrastruktury jest parametrem wyjściowym i zarazem pierwszym punktem, który wskazuje, jak trudno przyrównać do siebie te dwa rozwiązania. Często spotyka się porównania, w których głównie zestawia się parametry techniczne serwera dedykowanego i chmury obliczeniowej – ale to jest jeden z kolejnych etapów próby porównania tych dwóch różnych technologii.
Parametry Bezpieczeństwo
Wydajność
Serwer serwerowi nierówny… a jak je przyrównać do chmury ? Najczęściej, gdy już dochodzi do porównania serwera dedykowanego i chmury przedmiotem analizy są takie elementy jak: • • •
Ilość CPU Ilość RAM Wielkość dysku
Zapominamy często o bardzo istotnych elementach takich jak: • • • • • •
Bezpieczeństwo Wydajność SLA Ciągłość działania Elastyczność Koszty utrzymania i rozbudowy
Tabela przedstawia parametry według, których dokonano porównania chmury Sinersio i serwera dedykowanego:
Chmura sinersio
Serwer dedykowany
Niskie ryzyko utraty danych Wysokie ryzyko uszkodzenia eleze względu na zastosowanie mentów składowych serwera (w tym macierzy dyskowych klasy endysków). terprise. Ciągłość dostępu do danych mniejsza Ciągłość dostępu do danych niż w rozwiązaniu cloud computing. z definicji większa niż w serwerze dedykowanym. Wysoka ze względu na zaawansowane rozwiązania storage (macierze enterprise zbudowane w oparciu o hardware’owe kontrolery HA).
Niska ze względu na proste rozwiązania storage (najczęściej RAID software’owe).
rubryki stałe
SLA
mensis.pl
Standardowy poziom SLA dla usługi chmury Sinersio to 99,9% w skali miesiąca – to mniej niż 45 min przerwy w ciągu roku.
Najwyższa Ciągłość działania Dzięki zastosowaniu rozwiązań redundantnych awaria jakiegokolwiek komponentu infrastruktury nie jest zauważalna dla użytkownika systemu. Elastyczność
Praktycznie nieograniczona
Koszty utrzyma- W pełni mierzalne i przewidywalne. nia Przejrzyste zasady w modelu i rozbudowy pay-per-use.
Najczęstszy błąd to „przewymiarowywanie” środowiska pod przyszłe potrzeby
Jedną z najlepszych cech chmury obliczeniowej jest jej MIERZALNOŚĆ. Można to zrozumieć jako dokładne odzwierciedlenie zasobów (serwerów i przestrzeni) na dany moment. Dzięki temu, nie kupujemy na ZAPAS. Kupowanie na zapas jest charakterystyczne dla serwera dedykowanego, bo kupuje się go pod obecne i przyszłe potrzeby. Kupuje się z reguły WIĘCEJ, często DUŻO WIĘCEJ, bo jego przyszłe wyskalowanie jest trudne. Praktyka pokazuje, że połowy jego możliwości się nie wykorzystuje. W chmurze ten problem nie występuje i nie ma potrzeby jej przewymiarowywać na starcie, ponieważ jest na tyle elastyczna, że wielkość zasobów zawsze można zmienić.
Cena nie czyni cudów
Na pewno nie warto porównywać tych dwóch technologii tylko na podstawie ceny. Wirtualne data center w chmurze zawsze będzie kosztować nieco więcej
65
Standardowy czas wymiany uszkodzonego serwera to 24h, co realnie daje SLA na poziomie <70% w skali miesiąca! Podawane w umowach i regulaminach SLA na poziomie >99,9% dotyczy dostępu do sieci Internet lub zasilania gwarantowanego a nie dla serwera dedykowanego. Znikoma Awaria serwera powoduje przestój całego środowiska i brak dostępu do danych lub aplikacji przez kilka godzin.
Ograniczona możliwościami technicznymi serwera. Oszacowanie kosztów rozbudowy trudniejsze wraz z upływającym czasem. Zmieniająca się polityka gwarancyjna producentów (rosnąca cena suportu w kolejnych latach.
niż pojedynczy serwer dedykowany. Jednak to teoretycznie więcej, to koszt bezpieczeństwa i wygodnego użytkowania, który użytkownicy wolą ponieść, w kontekście zachowania ciągłości biznesu.
Jola Uździcka Dyrektor Sprzedaży i Marketingu w firmie Sinersio Polska. Data Center. Cloud4any. TotalBackup
66
rubryki stałe
mensis.pl
Google Tag Manager w sklepie internetowym
Wdrożenie narzędzia na przykładzie PrestaShop Karolina Kalińska
Google Tag Manager działa już od 2005 roku, a zainteresowanie tym narzędziem stale wzrasta. GTM ułatwia implementację tagów związanych z produktami Google oraz wszystkich innych kodów popularnych narzędzi marketingowych. To rozwiązanie jest ukłonem Google w stronę marketerów, których praca staje się szybsza, prostsza i niezależna od działów IT.
źródło: Google Trends Wszelkie tagi do czasów Google Tag Managera trzeba było dodawać bezpośrednio w kod strony. Na początku wydaje się to mało problematyczne. Jednak, gdy jest ich coraz więcej, robi się bałagan, zdarza się że tagi kolidują ze sobą i nie wszystko działa zgodnie z założeniami. Dzięki Menedżerowi Tagów Google wystarczy wkleić w kod strony tylko dwa kody śledzące, a całość zarządzania zewnętrznymi kodami zostaje przeniesiona do panelu GTM.
Konto GTM tworzymy, wykonując następujące kroki:
Pierwsze kroki
5. Utworzenie konta i zatwierdzenie warunków korzystania.
Aby założyć konto w Google Tag Manager należy posiadać konto Google. Najprościej będzie używać tego, na którym jest założony Analytics i Adwords.
1. Logowanie na stronie http://www.google.pl/intl/ pl/tagmanager/ 2. Konfiguracja konta - nadanie nazwy.
3. Konfiguracja kontenera - nadanie nazwy kontenera. Najlepiej jeżeli będzie to nazwa witryny. 4. Wybór użycia kontenera - w przypadku sklepów internetowych będzie to “Witryna internetowa”.
rubryki stałe
mensis.pl
Gdy tylko warunki zostaną zatwierdzone, na ekranie wyświetlą się kody do wklejenia na strony witryny. Pierwszy z nich należy wkleić w sekcję <head>, drugi zaraz za znacznikiem <body>.
67
68
rubryki stałe
mensis.pl
Kolorem zielonym został zaznaczony indywidualny kod konta GTM. Na jednym koncie Menedżera Tagów można posiadać wiele kontenerów (zbiorów tagów danego sklepu internetowego czy witryny). Posiadając kilka domen, można korzystać z jednego adresu gmail do logowania, nie trzeba zakładać nowych tak jak w przypadku innych usług Google, np. Merchant Center. Po wklejeniu kodów w odpowiednie miejsca, można dodawać tagi innych narzędzi bez dodatkowej ingerencji programistycznej w sklep internetowy. Najlepiej zacząć od Analytics.
Merchant Center. Natomiast konto Merchant Center powinno mieć dostęp do pliku xml zawierającego aktualne parametry oferowanych produktów. Jeżeli na koncie AdWords funkcjonuje już kampania produktowa oznacza to, że konto Merchant Center skonfigurowane jest prawidłowo. Do remarketingu potrzebny jest identyfikator konwersji. Można go znaleźć na koncie AdWords > Zasoby wspólne > Odbiorcy > Szczegóły tagu > Konfiguracja.
Google Analytics Należy wybrać sekcję “Tagi” i kliknąć “Nowy”, a następnie typ tagu: Universal Analytics albo Klasyczna wersja Google Analytics, w zależności od tego, co jest obecnie używane. W większości przypadków będzie to Universal Analytics. W tym miejscu wystarczy wpisać identyfikator śledzenia (nie ma potrzeby kopiowania całego kodu) i wybrać odpowiednie parametry funkcjonowania tagu. Znajdują się tam reguły wywoływania tagu, a ten w przypadku Analytics należy wywoływać na wszystkich stronach serwisu - All Pages. Oczywiście w uzasadnionych przypadkach można skonfigurować inne reguły wywoływania tagu np. tylko na stronie produktu lub tylko w koszyku. Gdy już wszystko zostanie ustawione, należy zapisać tag, a następnie opublikować wprowadzone zmiany - bez publikacji wprowadzony tag nie będzie funkcjonował. Należy też pamiętać, że jeśli kod Analytics został wcześniej zaimplementowany w inny sposób należy usunąć jego treść ze źródła strony lub z konfiguracji modułów sklepu.
Remarketing AdWords W ten sam sposób można skonfigurować śledzenie konwersji AdWords oraz Remarketing AdWords. Podczas konfiguracji remarketingu warto pomyśleć od razu o remarketingu dynamicznym. Dzięki niemu, konsumentom wyświetlają się konkretne produkty, które już przeglądali na stronach sklepu. Należy pamiętać, że aby stworzyć dynamiczne reklamy produktowe trzeba podłączyć do konta AdWords konto
Do remarketingu dynamicznego należy dodać ręcznie zmienne niestandardowe: • • •
ecomm_prodid - ID produktu, ecomm_pagetype - określenie typu strony, ecomm_totalvalue - określa wartość danego produktu.
Aby skonfigurować zmienne należy dodać parametr niestandardowy, a następnie wybrać Zmienna JavaScript. W przypadku sklepu PrestaShop wykorzystujemy zdefiniowane w systemie zmienne globalne, gdzie numer ID określa wartość: {id_product}, zaś cenę produktu zmienna {productPrice}. Typ strony to dowolnie zdefiniowana przez nas nazwa. Po prawidłowym skonfigurowaniu zmienne powinny wyglądać, jak na przedstawionym przykładzie.
rubryki stałe
mensis.pl
Prawidłowe działanie tagów warto sprawdzić za pomocą wtyczki do przeglądarki Chrome Google Assistant. Rozszerzenie podpowie co działa prawidłowo, a co wywołuje potencjalne problemy. Gdy dynamiczny Remarketing AdWords zostanie prawidłowo skonfigurowany, Google Assistant powinien wyświetlać tabelę na stronie każdego produktu, w której widoczne jest ID produktu (zgodne z ID produktu z Merchant Center) oraz cenę produktu, jak na przykładzie.
69
70
rubryki stałe
mensis.pl
Więcej możliwości Google Tag Managera na przykładzie Facebooka Google Tag Manager to narzędzie wszechstronne wykraczające funkcjonalnością poza ekosystem Google. GTM pozwala na skonfigurowanie tagów często używanych przez marketerów narzędzi, m.in.: Criteo One Tag, Hotjar Tracking Code czy LinkedIn. W bazie standardowo integrowanych tagach brakuje jednak konfiguracji pixela Facebooka, ale można to zrealizować kodem niestandardowym. Aby dodać tag Facebooka należy wybrać Niestandardowy kod HTML. Nie warto bagatelizować nadawania odpowiednich nazw znacznikom (np. “Pixel Facebook”), dzięki temu utrzymamy porządek i w razie potrzeby łatwo odnajdziemy się w gąszczu wykorzystywanych tagów. W przypadku korzystania z niestandardowego kodu HTML należy skopiować i wkleić cały kod pixela do pustego okna tekstowego tworzonego tagu. W ustawieniach zaawansowanych należy zaznaczyć, że tag powinien być uruchamiany raz na stronę, a w regułach wybrać wszystkie strony. Zrealizowanie tych prostych kroków pozwala zaimplementować na stronie podstawowy pixel Facebooka. Trzeba pamiętać, że zmiany każdorazowo należy zapisać (warto też dodać komentarz do wprowadzanej zmiany) i opublikować. Chcąc utworzyć znaczniki działań dla różnych stron i zdarzeń (np. strona produktu, strona zakupu), należy utworzyć nowy tag. Następnie wybrać na koncie reklamowym Facebooka zdarzenie, które ma być obserwowane, skopiować odpowiedni kod i wkleić w puste okno tekstowe.
W przypadku powyższej grafiki, zmienną value oraz currency należy odpowiednio zmienić. “Value” powinno wyświetlać wartość zakupu (zmienne globalne w przypadku PrestaShop), zaś currency walutę, w której są sprzedawane produkty. Prawidłowość synchronizacji pixeli Facebooka można sprawdzić za pomocą wtyczki do przeglądarki Chrome: Facebook Pixel Helper. Podobnie jak Google Assistant, wtyczka Facebooka podpowie, jak rozwiązać konkretne problemy z tagami..
Podsumowanie Google Tag Manager pozwoli zapanować nad mnogością tagów marketingowych. Nadaje się do wdrażania wszystkich narzędzi, które wymagają dodania osobnego kodu na stronach sklepu. Dzięki GTM implementowane kody są uporządkowane, łatwiej nimi zarządzać i śledzić historię ich modyfikacji. Marketingowcy, którzy zlecali takie zadania programistom już nie muszą czekać aż będą oni mieli czas na wdrożenie kodów. Programiści zaś pozbędą się mniej lubianej części swoich obowiązków i zyskają czas na naprawdę ważne zadania ;)
Karolina Kalińska marketing@sohoshop.pl SEO Manager i Certyfikowany Specjalista Google AdWords w agencji SOHOshop.pl
http://sohoshop.pl - Partner
PrestaShop w Polsce
rubryki staĹ&#x201A;e
mensis.pl
71