Czym mają być WWW 3.0 i WWW 4.0
W zeszłym tygodniu w artykule zatytułowanym „Co to jest WWW i jak się zmienia?” opisałem WWW 1.0 i WWW 2.0. Wiadomości, które tam Państwu przekazałem, były wiarygodne, bo dotyczyło tego, co już się zdarzyło lub dzieje się teraz na naszych oczach.
Natomiast to, o czym dzisiaj chcę napisać, jest raczej zbiorem przyszłościowych koncepcji, więc może się okazać, że rzetelna wiedza o WWW 3.0 i WWW 4.0 może się okazać nieco inna, gdy odpowiednie pojęcia i definicje zostaną już ostatecznie ustalone i utrwalone.
WWW 3.0 (opisywana także jako WEB 3.0) jest koncepcją sieci ukierunkowanej na znaczenia treści przechowywanych i przekazywanych w Internecie. WWW 1.0 pozwalała ludziom czytać teksty wybierane z Internetu, ale ich wybór był dokonywany na podstawie formy przechowywanych informacji (na przykład występowania w nich wskazanych słów kluczowych), a nie na podstawie sensu zawartego w tych tekstach. Postulat celowości budowania programów, które potrafią wniknąć w sens wiadomości niezależnie od jej formy sformułował w 1999 roku twórca WWW 1.0 Tim Barnes Lee. Do realizacji tego postulatu World Wide Web Consortium, główna międzynarodowa organizacja normalizacyjna dla sieci WWW, próbowała stosować tak zwane ontologie, gromadzące zestawy pojęć i kategorii oraz ich powiązań. Na ich temat powstało wiele opracowań naukowych, ale zakres praktycznej użyteczności stosowanych ontologii był dość ograniczony. W 2006 roku Berners-Lee i współpracownicy oficjalnie stwierdzili, że cel, jakim jest budowa sieci semantycznej (opartej na znaczeniach) nie został zrealizowany.
Co prawda niektóre domeny internetowe mają formalnie oznaczenia „Semantic Web”, ale w dużej części są to narzędzia o bardzo ograniczonych możliwościach. Zbudowano szereg narzędzi, które mają przybliżyć nas do możliwości budowy i używania sieci rozumiejącej znaczenie przechowywanych danych: Resource Description Framework (strukturalny opis zasobów, RDF), Web Ontology Language (język ontologii sieciowej, OWL) i Extensible Markup Language (rozszerzalny język znaczników, XML), ale droga do WWW 3.0 wciąż jest jeszcze daleka.
Skoro sieć WWW 3.0 nie została jeszcze zbudowana – tym bardziej rezerwą trzeba się odnosić do buńczucznych zapowiedzi sieci kolejnej generacji, WWW 4.0. Ma to być sieć symbiotyczna, gdzie ludzie i narzędzie informatyczne funkcjonują w swoistej symbiozie. Kluczem do realizacji tej idei mają być narzędzia służące do bezpośredniego kontaktu mózgu z komputerem, tak zwane BCI (Brain-Computer Interface). Jednak realizacja tej idei połączenia mózgu z komputerem, a poprzez oprogramowanie tego komputera z Internetem i siecią WWW jest bardzo trudna. Dostęp do aktywności mózgu jest możliwy za pomocą elektrod wbitych w korę mózgową, odbierających sygnały (mające formę elektrycznych impulsów) przekazywane pomiędzy komórkami nerwowymi. W przypadku zwierząt doświadczalnych to się udaje. Jednak wykonanie takiego zabiegu na człowieku napotyka na ogromne trudności. Głównym źródłem tych trudności jest problem, jak te sygnały z elektrod wyprowadzić na zewnątrz czaszki człowieka. Pozostawienie w czaszce otworu, przez który można by było przepuścić wielożyłowy kabel, jest niemożliwie, bo taki otwór to by były wrota dla bakterii i źródło ciągłych zakażeń. Przesyłanie bezprzewodowe (nadajnik radiowy wewnątrz zamkniętej czaszki i odbiornik na zewnątrz) też nastręcza wielu kłopotów. Z kolei odwołanie się do sygnałów EEG (potencjałów elektrycznych powstających na skórze głowy w następstwie aktywności mózgu) bardzo ogranicza szybkość i sprawność transmisji.
Nie wspomniałem o trudnościach związanych z wprowadzaniem informacji z sieci WWW wprost do mózgu – a te są jeszcze większe. Tak więc idea WWW 4.0 długo jeszcze pozostanie jedynie koncepcją z minimalną możliwością rzeczywistej realizacji.