Hirdetés
. Hirdetés

Kérdések kulcsszavak helyett

|

Tim Berners-Lee két évtizede mutatta be a széles nyilvánosságnak a World Wide Web projektet. A világháló azóta mindennapjaink részévé vált, elképzelhetetlen nélküle élni, átalakította az emberi kommunikációt, társadalom- és gazdaságformáló szerepe felbecsülhetetlen.

Hirdetés

Kérdések kulcsszavak helyett
Kérdések kulcsszavak helyett
Mélyére ásni, bugyraiban tényleg intelligensen kutakodni a Google sikere ellenére is komoly problémákat okoz még. A keresés ugyan hatékony, de az információhoz való hozzáférés hiába tűnik gyorsnak, a relevancia egyre kevésbé felel meg a csúcstechnológiai környezet lehetőségeinek. Kulcsszavak, feleslegesen hosszú dokumentumlista kezelése helyett célszerűbb és pontosabb lenne kérdéseket feltenni, és közvetlen, egyértelmű választ kapni rájuk.

Ehhez azonban a keresőmotornak szövegek végigfutása helyett alapentitásokat - embereket, helyeket, tárgyakat - kell azonosítania és feltárnia a köztük fennálló kapcsolatokat.

Az online keresés jelene
„Megfelelő tudományos és anyagi befektetéssel a keresés mai formájára rövid időn belül ugyanolyan nosztalgiával tekinthetnénk vissza, mint a múlt tovatűnt technológiáira, például az elektromos írógépre és a bakelitlemezre" - véli a témakörrel hosszú évek óta foglalkozó Oren Etzioni, a Washington Egyetem (Seattle) Turing Központjának vezetője.

Az átalakulás azonban késik. Egyrészt a kutatói közösségek viszonylag kevés energiát fordítottak bonyolult válaszokat szintetizáló megoldásokra, másrészt, mert inkább a klasszikus, kulcsszavas keresés fokozatos fejlődésére fókuszáltak. Pedig referenciaanyagok végeláthatatlan katalógusa helyett célszerűbb lenne, ha természetes nyelven kapnánk választ kérdéseinkre. A fejlesztők hiába találnak ki a korábbiaknál praktikusabb módszereket a használható találatok rangsorolására (ranking), az átvizsgált honlapok száma napról napra nő, a kereső milliárdnyi dokumentumot indexel, és akár a legegyszerűbb kutakodásra is képes milliónyi találattal előállni. A jelen és a közeljövő adatáradatában a felhasználó kérdését értelmező, az információból tényeket kinyerő, majd a helyes választ kiválasztó programra lenne szükség.

Az ismert keresőmotorok csak kis lépéseket tettek ebben az irányban. A Google hiába áll elő például speciális esetekben időjárás-előrejelzéssel, a megoldás egyáltalán nem általános, minden egyes kérdésre (egyelőre) lehetetlen egzakt felelettel szolgálni. A magát inkább „döntésmotorként" pozicionáló Bing a repülőjegy-kalkulátor kivételével többé-kevésbé ugyanúgy működik, mint a nagy rivális.

A Microsoft cambridge-i kutatórészlege (Egyesült Királyság) Antonio Criminisi vezetésével az emberi testet ábrázoló orvosi képeket néhány másodperc alatt indexelő (értelemszerűen speciális) keresőt fejlesztett, amely CT-röntgennél automatikusan megtalálja a szerveket és más szerkezeteket, így segítve a 3D-s fényképet tanulmányozó orvost. A kereső könnyebbé teszi röntgenképek kezelését és feldolgozását, sokat javítva a betegellátás minőségén. Csakhogy a szervek mellett a betegségek vizuális jeleit is célszerű lenne indexelni.

A 2009-ben indult és nagy médiafelhajtással beharangozott Wolfram Alpha elvileg az információ első olyan „globális tárháza," amely ugyanúgy érti és válaszolja meg a tényszerű kérdéseket, mint ahogy feltettük neki. Irreleváns honlapokat és dokumentumokat is tartalmazó listák helyett strukturált és szakértők által hitelesített adatokból összeálló korpuszok feldolgozásán alapuló konkrét válaszokat ad, emberi nyelven. Beütjük a szöveget, a gép számításokat végez, releváns szöveges és képi feleleteket generál.

Működése hasonlít Douglas Lenat 1980-as években elindított Cycjéhez. A Cyc folyamatosan bővülő adatbázist használva von le következtetéseket. A mesterségesintelligencia-kutatás brit fenegyereke, Stephen Wolfram találmánya ugyanígy következtet, ráadásul viszonylag kevés adatból is képes pontosan dolgozni. Másként, mint a sok választ indexáló, azokat a kutakodás tárgyával összevető, számukat - optimális esetben - egyre (remélhetőleg a helyesre) csökkentő szemantikus keresők.

A „józan paraszti ész"-ből - common sense - kiinduló Cyc rendszer számos szakmabeli véleménye szerint ez idáig a legelőrehaladottabb mesterségesintelligencia-kivitelezés. A Wolfram Alphát (még béta-változatban) egyébként maga Lenat is tesztelte. Egyes kérdésekre valóban meglepően pontos választ ad. Például arra, hogy „túl részeg vagyok a vezetéshez?" A program javaslata: „Súlyunk és az elfogyasztott ital mennyisége alapján számoljuk ki a véralkoholszintet." A megközelítés hátránya, hogy csak előzetesen nagyon pontosan definiált, korlátozott kérdéssorozatokra alkalmazható.

„A Cycnél szélesebb, a Google-nál szűkebb területre vonatkozó kutakodást kezel - állapította meg Lenat. - Az általa megjelenítettek közül egyiket-másikat érti is. De csak az egyiket-másikat. Végeredményben, nagy mennyiségű kérdést nem tud elemezni és nagy mennyiségű elemzett kérdésre képtelen választ adni."

A Microsoft és a Google egyaránt próbálkozik alternatív megoldásokkal. Előbbi 2008-ban vásárolta fel a természetes nyelven történő keresésre specializálódott Powerset startupot, utóbbi a filmekről, éttermekről és más helyi szolgáltatásokról érdeklődő felhasználónak válaszoló iPhone-alkalmazást kidolgozó, szintén startup Siri 2010-es akvizíciójával igyekezett újítani. Az igazság azonban az, hogy a két gigacég ilyen irányú kiadásai is csekély összegek a kulcsszavas keresésre fordított jelenlegi befektetésekhez képest.

A Google, a Bing és a Wolfram Alpha egyértelműen példázzák, hogy a keresők csak akkor tekinthetők intelligensnek, ha általános rendeltetésű „kérdés-válasz" képességekkel rendelkeznek. Jelenleg még a legfejlettebbek sincsenek ezen a szinten. Etzioni szerint mind a fejlesztői, mind a befektetői oldalon invenciózusabb megközelítésre, több kockázatot felvállalására lenne szükség.

Információkivonatoló rendszerek
Tényszerű információ automatikus kivonatolásával szövegekből az 1970-es évek óta foglalkozik a számítástudomány. A korai rendszereket nagyon jól körülírható, speciális és szűk témakörökre dolgozták ki, például az 1980-as években a Jasper Reuters-hírekből próbált pénzügyi információkat értelmezni. A vizsgálódási terület bővítése munkaintenzív folyamatnak bizonyult, ráadásul a hibázás lehetősége is nagyobb lett. Az újabb fontos változás a következő évtizedben éreztette hatását: a régebbieknél sokkal automatizáltabb információkivonatoló rendszerek megjelenésével a számítógépek már nem manuálisan „barkácsolt" szabályok alapján nyertek ki mondatokból tényeket, hanem - gondosan összeválogatott példamondat-gyűjtemény alapján - maga a rendszer generálta automatikusan a szabályokat. Az automatizált megközelítés modernebb, kisebb a hibaszázalék, viszont manuális beavatkozás nélkül még mindig nem elég hatékony, nem tud jól működő példagyűjteményt összeállítani minden egyes témakörre.

Etzioni laboratóriuma 2007-ben bevezette a bármilyen topikra méretezhető, tetszőleges mennyiségű angol mondatra alkalmazható (nyílt forráskódú) nyílt információkivonatoló módszert, az entitások közti kapcsolatokat webes dokumentumok alapján „feltérképező" ReVerb programot.

Az alapötlet felettébb egyszerű: a legtöbb mondat megbízható szintaktikai fogódzókat ad ahhoz, hogy mit jelent. Az angol nyelv általában igékkel vagy igékkel és prepozíciókkal fejezi ki a kapcsolatokat. A számítógép sokszor teljesen egyértelműen megállapítja, hogy az adott mondatban hol az ige, majd azonosítja a hozzá kapcsolódó entitásokat, és felhasználva ezeket az ismereteket, az adott tényre vonatkozó állításokat hoz létre. Természetesen nem mindig hibátlanul, mert például a Kentucky Fried Chicken esetében úgy is következtethet, hogy „Kentucky állam megsütött néhány csirkét." Viszont a szöveggyűjtemények, korpuszok, a nagy mennyiségű honlap egyértelműsítik, hogy ugyanazon állítás többféleképpen kifejezhető. Ha a rendszer különböző szerzők egymástól független azonos állítását sokszor kivonatolja, a kikövetkeztetett jelentés valószínűsége exponenciálisan nő.

A nyílt információkivonatolás példamondatok témaspecifikus gyűjteménye helyett az internet szerteágazó topikjait lefedő általános modellen alapul, azon keresztül vizsgálja az információ (angol) nyelven keresztül való kommunikálását.

Más megközelítéseket tesztelve is születtek fontos eredmények az utóbbi években. A szakterületi fejlesztések - a Google, a Microsoft és számos startup, például a felhasználót a kinézett termék megfelelő időben történő megvásárlásában segítő Decide.com mellett - híres amerikai felsőoktatási intézmények nevéhez fűződnek: Carnegie Mellon (Pittsburgh), Stanford (Palo Alto), New York Egyetem. A nyílt információkivonatolással ellentétben, ezek a megoldások egyelőre nem működnek automatikusan a teljes világhálón. Egyik-másik projekt hiába talált ki mondatokat, jelentéstani mélységeikben is értő szupergyors rendszereket, azok csak speciális területeken (leginkább a pénzügyekben) vagy meghatározott műfajokban (Wikipédia szócikkek) működőképesek. Tudományos cikkekben kutakodó, új kapcsolatokat és hipotéziseket feltételező masszív programokkal szintén kísérleteznek. Többségük egyelőre még nem teljesen automatizált, ráadásul olyan kihívásokkal is szembe kell nézniük, mint a leszűkített vizsgálódási kör (például Etzioni nyílt információkivonatoló módszerével kombinálva eredményesen kivitelezhető) bővítése.

A jelenlegi rendszerek távolról sem tökéletesek, amellett, hogy igével kifejezett kapcsolatokra következtetnek, főnevekkel és melléknevekkel is jobban el kellene boldogulniuk. Mivel az információt forrása, szándéka és szövegkörnyezete határozza meg, célszerű lenne, ha ezeket és a nüánszokat is beépítenék az elemzésbe, valamint a rendszereket minél több nyelvre adaptálnák.

Úgy tűnik, az ambíció és a képzelőerő hiánya is akadályozza az információkinyerésről a kérdés-felelet megközelítésre történő váltást. A természetesnyelv-feldolgozással kapcsolatos kutatások jelentős része korlátozott feladatokra, mondatok jelentésének megfejtése helyett szintaktikai szerkezetekre, masszív korpuszokra nem méretezhető módszerekre vagy (a manuálisan annotált adatoktól való függés miatt) tetszőlegesen kiválasztott topikokra, esetleg bevált, de a szövegek mennyiségi növekedése miatt egyre bonyolultabb és hosszadalmasabb számítási műveletekre kényszerülő algoritmusokra összpontosít.

Watson nyomában
A DARPA 2009-ben indult Gépi Olvasás programja figyelemre méltó kezdeményezés: a részt vevő kutatóközösségek a jelenlegi módszereket a web méretére és sokszínűségére igyekeznek adaptálni, és értelemszerűen előbb-utóbb szembenéznek a „kérdés-felelet" jellegű keresés szemantikai és egyéb kihívásaival.

Etzioni az IBM Watsonját hozza fel pozitív példaként, a jövőt előrevetítő kivételként. Február egyik technológiai szenzációjaként az amerikai Mindent vagy semmit (Jeopardy) vetélkedőműsor speciális fordulójában a szuperszámítógép legyőzte a show addigi két örökös bajnokát. A hardver sok szerver összessége, amelyeket a kvízműsor alatt a színfalak mögé rejtettek egy megfelelő hűtéssel ellátott óriási helyiségben. Tíz darab 100 IBM Power 750 szervert rejtő rackben található, kapacitása mintegy 2800 felettébb masszív számítógépnek felel meg, belső memóriáját például 15 terabájtosra méretezték.

Elektronikus szövegként érkező feladványnál bonyolult algoritmusokkal elemzi a szövegben fellelhető kulcsszavakat, viszonyaikat, a mondatok felépítését. A következő lépésben lehetséges válaszokat állít fel, és elvet más ötleteket. A válaszokhoz több mint egymillió könyvnek megfelelő szövegkorpuszt és adatbázisokat használ. Az IBM mérnökei azt tanulmányozzák, hogyan lehetne Watson képességeit általános rendeltetésűvé (és érvényűvé) tenni, hogy tevékenysége túlmutasson a Jeopardy keretein.

Az általános rendeltetésű kérdés-válasz rendszerek pozitív hatással lesznek a webes keresésre. Amellett, hogy például a tudósok alaposabban átfésülhetik az online szakirodalmat, a tömör válaszok miatt a világhálót mobileszközökön használók is eredményesen kutakodhatnak. Mivel egyre többen neteznek parányi kijelzőkkel, és a mobillehetőségeket választók száma drasztikusan nő, kereséseik eredményétől nem megijedni, hanem megörülni fognak. A kulcsszavas módszer néha végtelennek tűnő találatlistája helyett azt és semmivel sem többet vagy kevesebbet kapnak annál, mint amire kíváncsiak voltak.

Például, ha a Barcelona mai meccsének eredményére kérdeznek rá, megtudják, hogy a csapat 5-0-ra nyert, ha a legközelebbi thai étteremre, pontos címet kapnak. Általában gyors választ, elsődleges forrásokat akarunk.

Ambiciózus cél, ám a bonyolult kérdéseket azonnal megválaszoló Watson sikere optimizmusra ad okot.

Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.computertrends.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.