A robotom népszerűbb posztokat írt, mint én

Média
2014 április 23., 05:18
comments 37

„Enyhe, 2,7-es erősségű utórengést jelentett hétfőn hajnalban, Westwoodtól 4 mérföldre a Nemzeti Földtani Szolgálat."

Ez volt az első mondat a Los Angeles Times március 17-i cikkében. Egy 30 perccel korábban történt földrengésről szólt. Ez a legutóbbi, de nem az első cikk az újságban, amit egy robot írt.

Gyilkosságokról is jókat írnak

A programot, amely a földrengéses cikket előállította, a lap egyik munkatársa, Ken Schwencke készítette.

Nem volt nagyon bonyolult. Egy program figyelte Földtani Szolgálat automatikus figyelmeztetéseit. Ha egy bizonyos terülten belül (Los Angeles és környéke), egy megadott magnitúdónál nagyobb földrengés történt, akkor a szoftver fogta a Földtani Szolgálat automatikus figyelmeztetését, bemásolta a Los Angeles Times online szerkesztőségi rendszerébe. A rengés középpontjával generált egy térképet a Bing segítségével, belerakta a cikkbe, és küldött egy üzenetet az ügyeletes szerkesztőnek, hogy kirakhatja a posztot az újság weboldalára.

Schwenckének ez már a második ilyen projektje volt a lapnál. Az LA Times 2009-ben indította el a Homicide (Gyilkosság) nevű blogját.

Itt a városban történt gyilkosságokat dokumentálják. Schwencke programja összegyűjti egy gyilkosságról elérhető valamennyi nyilvános információt, például a rendőrségi közleményeket, és egy posztot generál belőlük. Ezt bárki elolvashatja a blogon, de főleg a lapnál dolgozó újságíróknak segít az egy helyre gyűjtött információ.

A gyilkosságok adatait térképen is ábrázolja az automata.

photo_camera Dél-Vermont, a halál völgye Los Angelesben

Így vált például egyértelművé, hogy melyik a legveszélyesebb környék, amiről aztán hosszan írtak 2014 elején.

Egymilliárd cikk a gépektől önöknek

Nem csak a Los Angeles Times kísérletezik a tartalomgyártás gépesítésével.

A svéd Karlstad egyetem kutatói két, ugyanarról a sporteseményről szóló cikket mutattak meg embereknek, és arra kérték őket, hogy értékeljék az írásokat.

Kiderült, hogy a gép által írt cikket az olvasók informatívabbnak és megbízhatóbbnak ítélték, mint azt, amit profi újságírók készítettek. A gép ebben az esetben az Automated Insights szoftvere volt.

Ez a cég kifejezetten tartalom automatikus előállítására szakosodott. Az algoritmusuk képes cikkeket írni sporteseményekről, az ingatlanpiac változásairól, online forgalmi statisztikákról.

„2014-ben a cég szoftvere egymilliárd cikket készít majd.”

Ezt az alapító Robbie Allen mondta.

Hasonló az elképzelési a Narrative Science nevű vállalkozás mögött. Ők gazdasági adatokból, a tőzsdei árfolyamváltozásokból gyártanak automatikus cikkeket. Az egyik legnagyobb ügyfelük az amerikai Forbes magazin.

Logikusnak tűnt, hogy kipróbáljunk valami hasonlót.

Hozott szalonnával

photo_camera Forrás: Wikipédia

Nem fogják elhinni, de a 444 és mondjuk a Los Angeles Times vagy a Forbes anyagi, technikai lehetőségei nem pontosan ugyanolyanok. Ráadásul én, az LA Times-os Ken Schwenckével szemben egyáltalán nem tudok programozni.

Kellett keresni egy ingyenes eszközt, amivel „cikkeket” „írathatok”, és egy felületet, ahová ezeket kitehetem. És persze témát, amiről a robot ír.

A keresgélés és tervezgetés közben viszonylag hamar eldőlt két dolog.

  • Nem a 444-en fogok kísérletezni, mert a mi szerkesztőségi rendszerünket csak nagyon nehezen tudnánk alkalmassá tenni ilyesmire.
  • Nem magyarul fogok kísérletezni, mert a magyar nyelv nem kedvez az automatizálásnak, ráadásul a rendelkezésre álló eszközök és a potenciális közönség mérete is az angol mellett szóltak.

Miután ezeket eldöntöttem, a többi adta magát.

A Tumblr nevű blogszolgáltatást választottam platformnak, mert annak működését technikailag, és a felhasználói szokások szempontjából is ismerem.

A Reddit nevű közösségi híroldalt a témák forrásának, mert tudom, hogy ott nagyon gyorsan, sok, és népszerű (virális) tartalom keletkezik.

És az IFTTT (If This Then That - Ha ez, akkor az) nevű webes szolgáltatást a robotnak, mert az tud kapcsolódni a Reddithez és a Tumblrhez is.

Cicik vagy cicák

Ha ismerik a Tumblrt, a Redditet, vagy az internetet általában, akkor tudják, hogy két dologgal könnyű sikert elérni: cukisággal és szexszel.

tumblr_n2s5llUkhk1tumrzwo1_250

Az eredeti terv az volt, hogy két blogot indítok. Az egyiken mindenféle állatok cukik, a másikon pedig mindenféle nők meztelenek. Aztán a végén össze lehetett volna hasonlítani, hogy melyiket csinálja jobban az automata.

De a tesztnap után, amikor még nem voltak publikusak az oldalak, a szex ügyében meggondoltam magam.

Még egy olyan egyszerű automata is, mint amilyet használtam, naponta akár 100 alkalommal is posztol. Persze rá tudok nézni, hogy mi történik, de a szoftver éjjel-nappal dolgozik, és pont az az egész kísérlet lényege, hogy én az indítás után nem nyúlok bele.

Ha valami félresikerül, akkor a cicás blognál legfeljebb kikerül egy nem olyan cuki cica. Vagy ne adj isten, egy kutya. De más veszély nincs.

A pornónál viszont van. Még ha körültekintően járok is el, akkor is reális veszélye van, hogy kikerül olyan tartalom, amit én helytelennek gondolok, vagy akár olyan dolog, ami ezen felül illegális is.

Maradtam a cukiságnál.

Ó, de cuki kis állatok

Először regisztráltam egy Tumblrt

awwcutelittleanimals

néven.

Ez magyarul annyit jelent, hogy „Ó, de cuki kis állatok”.

Azért ezt a nevet választottam, mert azt akartam, hogy aki a Google-ben angolul ezekre a szavakra keres, az az én blogomat találja meg. Sajnos az egyszerűbb verziók, mint a "cuteanimals" már foglaltak voltak.

Miután ez megvolt, elmentem a Redditre és kiválogattam azokat a subredditeket, ha úgy tetszik „fórumokat”, vagy „beszélgetéseket”, ahol sok cuki képet, gifet, videót posztolnak az emberek. Mint az /r/aww, vagy az /r/cute. Meg még jó pár hasonló.

Miután megvolt a Tumblr, és kiválasztottam a Redditen a témákat, akkor beállítottam a robotot, az IFTTT-t.

tumblr_n49x29ku4J1tumrzwo1_250

A Reddit úgy működik, hogy ha egy felhasználó beküld bármilyen tartalmat, mondjuk egy képet egy ásító bébilajhárról, akkor a többi felhasználó szavazhat erre a képre.

Azt tanítottam meg az automatának, hogy figyelje a kiválasztott subredditeket, és ha egy tartalom elér bizonyos számú pozitív szavazatot (bekerül az első 10-be), akkor az rakja ki a Tumblrre. Azért szabtam meg, hogy csak a Top 10-ben lévő új elemek kerüljenek ki, mert így tényleg minimálisra lehetett csökkenteni az esélyét, hogy olyan tartalom menjen ki, amit nem szeretnék.

Még egy fontos dolgot beállítottam. Azt, hogy a Tumblrre kerülő dolgokat tagelje (címkézze) fel az automata. Ami a lajháros subredditből jön, arra írja rá angolul, hogy „lajhár”, ami a kutyásról, arra azt, hogy „kutya” és így tovább.

Indulnak a koalák

Március 4-én került ki az első poszt. Ez a koalás gif volt az:

tumblr_n1xy09S3an1tumrzwo1_250

Már ezen a ponton úgy éreztem magam, mint Rupert Murdoch. Pont ilyen első posztot akartam.

Egy Tumblr-blog elérhető kívülről, ha valaki beírja a címét a böngészőbe, vagy megtalálja a Google-n. De miért írná be valaki pont az én 1 napos blogom címét? És hát a Google sem napok alatt fedezi fel az oldalakat, amiket amúgy senki sem látogat.

A Tumblr-en „belülről” kétféle módon találnak tartalmat az emberek.

Egyrészt követnek bizonyos blogokat, és amikor belépnek a rendszerbe, rögtön látják, hogy oda miket posztoltak. Itt megint az a probléma, hogy miért követné bárki pont az én automatámat, amiről nem is tudja, hogy létezik. A másik út, hogy az emberek néha rákeresnek címkékre a Tumblren belül. Az előbb írtam, hogy a címkézésre figyeltem. Így mikor valaki beírta, hogy ő koalás tartalmat keres, akkor már az én oldalamat is megtalálhatta.

Attól tartottam, hogy ez nem lesz elég, és majd a 444-en, valamelyik műsorvezetésem alatt csak úgy belinkelek valami cuki gifet a blogról, hogy beinduljon a dolog.

De a Tumblr hihetetlenül erős lajhárfüggő szubkultúrája miatt erre egyáltalán nem volt szükség.

Március 5-én, egy nappal az indulás után az automata kirakta ugyanis ezt a képet.

tumblr_n1zkf09hz71tumrzwo1_1280
Nem tudom, mi benne a különleges, de rövid idő alatt 100-nál több megosztás jött rá, és befutott az első pár követő is. Rupert Murdochnál is Rupert Murdochabbnak éreztem magam.

A blog a következő napokban szépen növekedett, jöttek új követők, és voltak még sikeres posztok. Egy idő után nem néztem már olyan gyakran, hogy mi történik. A telefonomra úgyis jöttek az értesítések.

Aztán egyik reggel, március közepén arra ébredtem, hogy a telefon több száz értesítést mutat. Először azt hittem, hogy elromlott valami. Aztán azt, hogy mégis beleszaladtam valami állatos gyilokpornóba.

Felmentem a Tumblrre, és láttam, hogy ezt a kép ment ki:

tumblr_n2qukfzIX81tumrzwo1_500

Két átlagos kutya. Az automata rakott már ki helyesebbet. Aztán láttam, hogy több mint 8000(!) "megosztás" lett rajta pár óra alatt.

KI A FASZOM AZ A RUPERT MURDOCH?!?!?!

És akkor levelet írt a Pedigree

A blog elég szépen felfutott. Március 4. óta van rajta

  • 2353 poszt,
  • 185 követő,
  • a két közepesen helyes kutyán 17 229 (!) "megosztás",
  • és még jó pár poszt párezres számokkal.

Az összehasonlítás kedvéért az én nem túl rendszeresen ápolt személyes Tumblrem 2012 októbere óta működik,

  • van rajta azóta 523 poszt,
  • 290 követő,
  • és, ha jól emlékszem, a legnépszerűbb poszton 60(!) "megosztás". (Amitől egyébként akkor el voltam ájulva.)

A Tumblren kívül nem sikerül elérni átütő sikert, de ez nem is csoda. A blogot a Google Analytics szerint kívülről napi 4-7 ember nézi meg, a csúcs március 24-én volt 13 látogatóval.

A legnagyobb sikert nem is ezek a számok mutatják, vagy legalább is nem közvetlenül.

Április első hetében ugyanis

a robot levelet kapott a világ egyik legnagyobb állateledel-gyártójától, a Pedigreetől.

Azt írták, hogy most kezdődik valami jótékonysági akciójuk (kóbor kutyák örökbefogadása, vagy ilyesmi), és nagyon szeretnék, ha részt vennék a kampányban, mert úgy érzik, hogy ez a blog passzol az elképzeléseikhez.

Nem szóltam vissza.

Mondanám, hogy azért, mert nem akartam a kísérleti eredményeket befolyásolni, de valójában azért, mert úgysem adtak volna pénzt, legfeljebb keresztpromóciót. Én meg nem akarok ezen a kísérleten túl hosszú távon cukikutyás tartalmakból élni. Úgyhogy ezt elengedtem.

Na de akkor gépek fogják írni az újságokat, vagy nem?

irobot

Nem tudom. Nem hiszem.

Az újságírás és a tartalomgyártás azért sokkal sokszínűbb dolog képek posztolgatásánál vagy adatokból összeállított rövidhíreknél. Nehéz elképzelni, hogy oknyomozós anyagokat, személyes hangú riportokat, vicces vagy okos elemzéseket gyártsanak robotok. Ha képesek lennének ilyen bonyolult feladatokra, akkor még sok sokkal fontosabb dolguk is lenne a világban.

Az adatokat vagy híreket begyűjtő automatáknak lehet/lesz egyre nagyobb szerepük, de a kimenetet nem gépek csinálják még nagyon sokáig.

Az, hogy bizonyos típusú rövidhíreket egy szoftver állítson össze, már most is előfordul. És egyre gyakrabban fordul majd elő. Pár szám, kevesebb szöveg.

A gép csak arra alkalmas, hogy emberi produkciókra adott emberi reakciókat számoljon, értékeljen, az alapján avatkozzon be a tartalomelőállításba. Ő maga nem tudja eldönteni, hogy melyik kiscica aranyos, és melyik nem. Cuki fotót sem tud készíteni.

Az automatizálás inkább a tartalom gyorsabb, hatékonyabb feldolgozásáról, publikálásáról szól, mintsem a valódi előállításról.

Aztán ha nem lenne igazam, akkor még mindig az van, hogy

az én robotomat már keresték a Pedigree-től!

Kommentek

Közösségünk messze túlnyomó többségének jószándéka és minden moderációs igyekezetünk ellenére cikkeink alatt időről-időre a kollégáinkat durván sértő, bántó megjegyzések jelentek meg.
Hosszas mérlegelés és a lehetőségeink alapos vizsgálata után úgy döntöttünk, hogy a jövőben a közösségépítés más útjait támogatjuk, és a cikkek alatti kommentelés lehetőségét megszüntetjük. Közösség és Belső kör csomaggal rendelkező előfizetőinket továbbra is várjuk zárt Facebook csoportunkba, a Közértbe, ahol hozzászólhatnak a cikkeinkhez, és kérdezhetnek a szerzőinktől is.