Nigdy nie należałem do bezkrytycznych entuzjastów samoorganizującej się gospodarki rozproszonej, „oddawania określonych zadań w ręce tłumu (crowdsourcing), bystrego tłumu (smart mobs), mądrości tłumu (crowd wisdom)” czy też usieciowionej inteligencji, tak jak autorzy książki o Wikinomii (D. Tapscott, A. D. Williams, Wikinomia : o globalnej współpracy, która zmienia wszystko, Warszawa 2008, stamtąd też pochodzi cytat). Sympatyzuję natomiast z gronem sceptyków podkreślających niebezpieczeństwa, jakie wyniknąć mogą z „anarchistycznej”, nie ujętej w żadne taksonomiczne ramy działalności internautów. W odniesieniu do dającego się zaobserwować kryzysu tej filozofii nie odczuwam żadnego rodzaju Schadenfreude, chciałbym jednak zaprezentować swój do niej całkowicie subiektywny komentarz.
Przede wszystkim nie oszukujmy się, „mądrość tłumu” nie jest w istocie żadną „wiedzą”, na której można opierać nowoczesną gospodarkę czy naukę. Przykłady podawane przez D. Tapscotta i A. Williamsa raczej potwierdzają tezę, że tę mądrość tłumu można wykorzystać instytucjonalnie, kiedy ukierunkowuje się ją na realizację pewnych zadań w organizacjach dysponujących zapleczem i kapitałem. Nie jest ona natomiast potencjałem mogącym wygenerować samorzutnie jakąś wartość bez uprzednich inwestycji. Rzeczywistość końca pierwszej dekady XXI wieku odarła ze złudzeń ekonomistów wierzących w niewidzialną rękę rynku, teraz zdaje się odzierać z nich entuzjastów chmury.
Wyraźnym sygnałem ostrzegawczym, którego nie mogą oni zignorować, są tu kłopoty Wikipedii. „Komentatorzy zwracają również uwagę na – ich zdaniem – zbyt skomplikowany sposób edycji artykułów. Aby biegle tworzyć nowe treści, autor tekstów musi zapoznać się ze sposobem tworzenia haseł w Wikipedii. Jak się okazuje, przyswojenie kilku prostych zasad, dotyczących tworzenia haseł encyklopedycznych staje się dla coraz większej liczby internautów problemem nie do przejścia” pisze Ł. Michalik na łamach Vbeta.pl. Nie jest możliwe, by takie osoby mogły tworzyć nowoczesną gospodarkę i naukę. Jaką „mądrość” one sobą reprezentują? Ile warta jest treść tworzona przez kogoś, kto nie jest nawet w stanie zrozumieć nieskomplikowanych zasad tworzenia haseł encyklopedii internetowej?
Niedawno pisałem o tym, że internauci nie potrafią korzystać z jednego z najprostszych narzędzi dwuzerowych, tj. tagowania. Pozostając jeszcze na chwilę przy tymże serwisie społecznościowym: jego pierwotna idea dawno już umarła. Od dawna nie przeprowadza się tam zwykłych wymian z wolnej ręki, niesłychanie rzadko zdarza się, że jakiś użytkownik udostępni dobrą książkę, poszukiwaną przez innych. Górę wziął merkantylizm, książkami wymienia się teraz tylko na zasadzie „coś za coś” w transakcjach prywatnych.
Marcin Wilkowski pytał, czemu historycy nie publikują online. Odpowiedź jest prosta: z tego samego powodu – nie mają bodźca. Nie ma w Polsce punktowanych historycznych czasopism elektronicznych (jedynym znanym mi wyjątkiem jest lubelska „Kultura i Historia” http://www.kulturaihistoria.umcs.lublin.pl/, wydawana przez Instytut Kulturoznawstwa UMCS, z czego wynika jasno, że nie jest to pismo sensu stricte historyczne), w związku z czym tekst opublikowany online nie liczy się do dorobku naukowego. Choćbym więc pisał co tydzień ważny i głęboki tekst i publikował go w Internecie, w ocenie parametrycznej będę oceniony tak samo jak ktoś, kto przez cały rok nie napisał ani jednego sensownego zdania.
Zwolennicy idei Open Access mówią głównie o pieniądzach, które chciwi autorzy i wydawcy wyciągają z kieszeni biednych studentów i innych pracowników naukowych. Odnoszę czasem wrażenie, że mamona całkiem przysłania im obraz rzeczywistości. Prawda jest bowiem taka, że nauka nie może funkcjonować bez finansów. Nie można prowadzić badań za darmo. Potrzebna jest do tego infrastruktura, która kosztuje. Ten sam problem uwidacznia się bardzo wyraziście w przypadku dziennikarstwa prasowego, na co nieraz już zwracano uwagę. Z jednej strony mamy bowiem solidne, rzetelne rzemiosło akredytowane tytułem czasopisma oraz nazwiskiem autora, z drugiej zaś dziennikarstwo internetowe, operujące przetwarzanym na różne sposoby informacyjnym półproduktem. Nauka warsztatu, a następnie zdobywanie informacji, ich weryfikacja, wyrabianie sobie własnej opinii, bezstronność – wszystko to wymaga czasu oraz zaplecza i funduszy. Niezliczone portale internetowe oferują nam dostęp do informacji bezpłatnie, tutaj jednak kosztem, jaki ponosimy, jest ich rzetelność i wiarygodność. Nie wolno zapominać, że treści dostępnych za darmo nie da się wyczarować ex nihil, a wszystko ma swoją cenę (w tym przypadku w najlepszym razie jest to jedynie pasożytnictwo na mediach maintreamowych). O budowaniu solidnej wiedzy nie może jednak być tu mowy.
Twierdzenie, że ktoś zbija miliony dolarów na publikacjach artykułów naukowych to albo grube nieporozumienie, albo świadome kłamstwo, zwłaszcza jeśli mówimy o nauce polskiej czy europejskiej. To prawda, że dostęp do baz typu ProQuest czy Ebsco jest bardzo drogi, ale nie dajmy sobie wmówić, że każdy cent wydany na ich zakup trafia do kieszeni chciwego kapitalisty jako jego czysty zysk.
Każdy pracownik naukowy wie, że z publikacji nie da się wyżyć (naukowe czasopisma z zakresu historii nie płacą autorom za teksty), więc międlenie o tym, że dla wspólnego dobra powinniśmy zrezygnować z mitycznych olbrzymich zysków wzbudza jedynie pusty śmiech. Ale jeśli pisząc i publikując w Internecie nie będziemy mieli ani pieniędzy, ani publikacji liczących się do oceny parametrycznej (dorobku naukowego), to cały system, który zwolennicy OA próbują budować, załamuje się już w punkcie wyjścia. Akademicy po prostu muszą mieć coś z tego, że prowadzą badania naukowe (poza czystą satysfakcją). Dopóki nie zajdą tu jakieś zasadnicze zmiany, dywagacje na temat Open Access będą czczą gadaniną.
Ewentualny wyrok skazujący dla Aarona Swartza będzie wyraźnym sygnałem hamującym darmowe udostępnianie tekstów, szczególnie w sieciach pirackich. Wyrok taki, przy obowiązującym w krajach anglosaskich prawie precedensowym, otworzyłby furtkę do pociągnięcia do odpowiedzialności karnej kolejnych piratów.
Jeśli się nie mylę, to jedynie Google potrafiło wykorzystać na dłuższą metę ową mityczną „mądrość tłumu”. Pamiętajmy jednak, że tutaj wymaga się od użytkownika najmniej: nic nie trzeba robić, wystarczy klikać. Nie zdał natomiast egzaminu taki Web 2.0, w którym od użytkownika wymaga się więcej wysiłku, zaangażowania i przede wszystkim rzeczywistej, rzetelnej wiedzy.
Wniosek płynie stąd taki, że każda działalność ludzka potrzebuje stymulacji i odpowiedniego ukierunkowywania. Nie jest prawdą, że teraz wszyscy będą robili wszystko za darmo, za darmo oddawali swoją własność intelektualną, z której wszyscy będą mogli do woli korzystać. Dwuzerowy optymizm nie tylko staje na przekór zdrowemu rozsądkowi, próbuje także zawrócić miliony lat ewolucji, która wykształciła w nas zdrowy egoizm; nigdy nie było tak, żeby bezinteresownie oddawać obcym osobnikom efekty własnej pracy. Co więcej okazuje się, że wszystkim sterować muszą stać jakieś mechanizmy regulujące, pobudzające ruch i zasilające maszynerię energią, smarujące jej tryby.
Eksperyment z sieciowym komunizmem nie wypalił. Nic obecnie nie wskazuje na to, że 2.0 ma jakiekolwiek poważne zastosowania w nauce czy kulturze wyższej, choć jest już nie do zastąpienia w komunikacji i rozrywce. Facebookowi nic nie grozi, ale przyszłość Wikipedii stoi pod znakiem zapytania.
• • •
O ile nie zaznaczono inaczej tekstowa treść tego artykułu jest dostępna na licencji Creative Commons Uznanie autorstwa-Na tych samych warunkach 3.0 Unported.
Redakcja zastrzega sobie prawo edycji lub usunięcia komentarza, jeśli jego treść nie odnosi się do treści artykułu lub narusza zasady netykiety. Komentarze są moderowane.
Zgadzam się entuzjastycznie (pisze to bez ironii!) z większością tez autora. :Poza pierwszą – tytułową . Pisarstwo naukowe i okołonaukowe to bardzo niewielka część świata internetu 2.0. Natomiast gdyby tekst nosił tytuł „Koniec nauki 2.0″ – inna sprawa :-) i pełne wsparcie
cóż zawsze się znajdzie jakiś szaleniec lubiący coś robić pro publico bono choćby raz na 5 lat, zawsze się znajdzie natchniony naukowiec chcący się pochwalić swoimi odkryciami, zawsze się znajdzie ktoś kto będzie chciał być uwieczniony i coś skrobnie.
Kwestią jest czy faktycznie będzie ich wystarczająco wielu i czy będą wystarczająco biegli w tym co robią aby napędzać i smarować to koło.
Myślę pozytywnie bo nawet komentując tutaj jest ponoszony jakiś wysiłek przez waszych czytelników, mimo iż nie dajecie standardowego miejsca na link zwrotny do autora.
Artykuł bardzo ciekawy i, jak zauważył szanowny przedmówca, na pewno dotyczy nauki. Powyższa analiza byłaby z pewnością bogatsza, gdyby włączyć do niej także Benklera z jego „Bogactwem sieci”, w którym prezentuje szereg uwarunkowań tzw. „społecznej produkcji” i możliwości jej wykorzystania – organizacyjnych, ekonomicznych, socjologicznych i psychologicznych. Przede wszystkim, nikt nie robi czegoś za darmo, ale zawsze z jakiejś motywacji, która nie zawsze musi być wywoływana pieniędzmi. Po drugie, mówiąc o społecznościach nieprofesjonalnych warunkiem powodzenia w ich angażowaniu jest prostota czynności (tu wzmiankowane kłopoty z edycją Wikipedii), którą chce podjąć wielu. Dlatego nie ma wielkiego sensu mówić o tym, że 2.0 może wyręczyć zawodowców i stanowi rozwiązanie problemów, ale można zastanawiać się np. czy nasza profesjonalna działalność może z 2.0 skorzystać – w jakiejś mierze i na użytecznych zasadach. Są obszary gdzie się nie da po prostu tego zrobić.
Odbieram ten artykułu raczej jako próbę prowokacji do polemiki na temat Web2.0, a nie rzetelna ocenę, na którą ja osobiście bym się jeszcze nie odważył. Przypomina mi to raczej narzekanie na brak własnych umiejętności i prawdopodobnie niemożności odnalezienia się w tej rzeczywistości. Proponuje zapoznanie sie projektami open source i ich analiza.
Ostrożnie z ogłoszeniami o końcach świata.
Z całym szacunkiem do Autora, nie zrozumiałem artykułu (wyjąwszy pełne zrozumienie, iż Autor nie przepada za masami i za Web 2.0).
Web 2.0 nie był niczyim eksperymentem Jest potężnym zespołem zjawisk technologiczno-społecznych wysoce niezależnych od naszych chceń. Dlatego też – nie da się go „odwołać”, jak to próbuje uczynić autor. Ja osobiście np. nie lubię jesiennych deszczów, ale na szczęście nie piszę artykułu „Koniec świata deszczu” i nie piszę tekstów typu „nigdy nie byłem entuzjastą deszczu, ale dziś już jest jasne, że deszcze jako stan pogody nie sprawdzają się w profesjonalnej uprawie roślin. Najlepszym tego dowodem jest zeszłoroczna powódź”
BTW: bodaj jedyny konkret w Pana tekście, to Wikipedia (bo informacje o tym, że ktoś „nie daje punktów za elektroniczny artykuł” nie jest na temat Web 2.0, słowo!). Niegdyś, u progu „2.0″ Wikipedia była ważnym zjawiskiem, teraz, mocno anachroniczna, zbliża się do własnego kresu możliwości i zapewne będzie umierać. Od dłuższego już czasu nie jest jadnak ani dobrym, ani nawet typowym przykładem Web 2.0, ani też polem uprawniającym do jakichkolwiek uogólnień. Ma znaczenie raczej historyczne i zapewne stąd zainteresowanie nią autora ;-)
Deszcze są i Web 2.0 jest. „Odwoływanie ich” jest mało płodne twórczo. Lepiej je badać, poznawać, oswajać (także SIĘ z nimi) i czynić sobie poddanymi.
@ Michał Zając: uściślając tytuł, chodziło mi o koniec świata 2.0 takiego, jaki wieszczą jego prorocy, świata „totalnego” obejmującego naukę, edukację, gospodarkę, sztukę, rozrywkę itd. Mam na myśli kryzys pewnej „filozofii”, koncepcji, modelu czy utopii, która w postulowanym przez jej piewców kształcie – jak sądzę na chwilę obecną – nie ma szans się ziścić. Oczywiście nauka 2.0 to tylko fragment tej całości, wcale nie taki mały, i jeśli go usuniemy, to obraz całości zmieni się w istotny sposób. W tym znaczeniu uważam, że jest uprawione mówienie o końcu świata 2.0.
@ Remigiusz: co do Benklera to pewnie masz rację, ale moim zamiarem nie było stworzenie obszernej analizy:) Co do reszty to oczywiście zgoda, stawiam te same tezy:)
@ Sceptycznie…: jesteśmy jednomyślni, rzeczywiście nic Pan nie zrozumiał:)
Aaaa, skoro jednak ma to być ogólnie o świecie 2.0 (choć na moje oko tekst jest naprawdę SFOKUSOWANY :-) na nauce!) to moje poparcie dla artykułu było przedwczesne ..
IMHO wspinamy się dopiero po krzywej zainteresowania, zrozumienia i wykorzystania potęgi świata 2.0.
2.0 jeżeli dobrze rozumiem, to zjawiska daleko wykraczające poza sieć :-)
Acha – i upieram się, że – w kontekście ogromu zmian sygnowanych „2.0″ – naukowe aspekty tego świata to niewarty wspomnienia drobiazg.
Bo czymże są dylematy naukowców nt. CC wobec jednego faktu , że rewolucje na ulicach robi się teraz za pomocą FB ? Że zmienia się rządy alertami na serwisach społecznościowych?
Nad czym zresztą – jak Remigiusz wie – ubolewam.
A takich faktów ze świata 2.0 jest wiele , wiele :-)
IMHO przedwczesne jest stwierdzenie, że teraz wszystko, włącznie z rewolucjami i zmianami rządów, robi „się” przez FB i Twittera.
Owszem, tekst jest sfokusowany, na dwóch stronach maszynopisu nie sposób omówić całości takiego zjawiska, niemniej nie zmieniam zdania, że jeśli z jakiejś całości zabierzemy spory fragment, to ta całość się istotnie zmieni.
„IMHO przedwczesne jest stwierdzenie, że teraz wszystko, włącznie z rewolucjami i zmianami rządów, robi „się” przez FB i Twittera.”
Nie twierdziłem niczego takiego. To byłby duży kwantyfikator . Ja używałbym raczej małego :-) I tak robi wrażenie i falsyfikuje tytułową tezę o końcu „świata 2.0″.
Owszem twierdziłem zaś , że w sprawie „świata 2.0″ nauka 2.0 to nie jest „spory” fragment, tylko margines :-)
Pan słucha także metalu, prawda? Teza o końcu świata 2.0 przypomina mi obśmiewane stwierdzenia, że „Metallica skończyła się po Kill ‚em all” :-)
Głównie metalu:) I nawet teraz „leci” u mnie „Master of Puppets”;)
OK, czyli zgadzamy się w mniejszych kwestiach („nauka 2.0″), natomiast nie zgadzamy w ogólniejszych – i to jest fajne właśnie;) Ja Pana nie przekonam do mojej tezy (są to zresztą, jak zaznaczyłem na samym początku, jedynie moje subiektywne uwagi, mój własny ogląd rzeczywistości, a nie żadne prawa, nie oczekuję, że każdy je uzna za swoje), a Pan mnie nie przekonał, że ją sfalsyfikował:) Obaj mamy prawo do różnej oceny zjawisk i to mnie cieszy najbardziej:) A nasze wnuki rozstrzygną, kto był bliżej prawdy;)
Wiem, że nie muszę tego Panu tłumaczyć, ale – teraz z innej beczki – poziom debaty publicznej w naszym kraju jest na ogół tak niski, że uważam, ze zawsze warto taką konkluzję podać na wypadek, jeśli jeszcze ktoś poza nami będzie to czytał.
Poprawka: po chwili zastanowienia widzę, że zgadzamy się z Panem Michałem co do tego, co napisałem w tekście, natomiast cała ta dyskusja dotyczy jedynie tytułu, jednego hasła. W związku z tym jest chyba na dobrą sprawę bezprzedmiotowa. Hasło „koniec świata” może być dowolnie interpretowane, ma nieskończoną liczbę konotacji, więc tak naprawdę o co my się tu spieramy?:)
@Piotr Tafiłowski: no to jasniej: z mojej strony „nic nie zrozumiałem” było eufemistyczną sugestią, iż ogłosił pan bardzo śmiałą tezę nie sprecyzowawszy pojęć, którymi Pan się posługuje i że w tej sytuacji nijak przywoływane fakty i opninie nie chcą się na jej dowód poskładać. Pan był łaskaw potraktować to bardzo dosłownie i zamienić na odpowiedź, którą chyba należy zinterpretować jako „tak, nic nie zrozumiałeś idioto, spadaj, to nie do ciebie”. Jednak w tym samym komentarzu (wyżej) wyjawił Pan po raz pierwszy, co Pan rozumie przez „świat 2.0″ i – znów eufemistycznie ujmując – jest to interpretacja mało oczywista i na domiar wzięta z mgły nieokreślonych „proroków” i „piewców”. Za Ockhamem podążając prościej byłoby w takiej sytuacji zamiast głosić koniec świata, ogłosić raczej koniec pewnego własnego wyobrażenia na temat tego świata, wyobrażenia opartego na doniesieniach owych tajemniczych „prorokow” i „piewców”.
Mój głos pojawił się (1) Jako sygnał (dla Pana) istnienia „czytelników 2.0″, których w wersji papierowej Pan po prostu nie ma (bonus Nauki 2.0) oraz (2) jako próbka (dla mnie, bonus nauki 2.0), czy Pan swój tekst opublikował jako próbę wykorzystania pewnego popularnego (w Nauce 2.0?) sposobu ewaluacji własnych idei bądź po prostu tekstów: doszlifowywania, ulepszania, pozbawiania braków i błędów własnych. Opublikowanie draftu w serwisie umożliwiającym publiczne komentowanie daje spore możliwości pozyskiwania opinii, których ze świecą szukać podczas wygłaszania referatu 1.0. Bezcenne (ale tylko przed końcem świata ;-)
Panie Sceptycznie, proszę nie odbierać mojej odpowiedzi jako złośliwości, bo absolutnie nie takie są moje intencje i odpowiadam całkowicie poważnie i szczerze. Jednak muszę stwierdzić, że swoim komentarzem pokazuje Pan, że mojego tekstu w ogóle nie przeczytał.
„Prorocy” są jak najbardziej określeni i wymieniam ich po nazwisku w pierwszym akapicie. W moich komentarzach nie pojawiła się żadna nowa informacja, wszystko zostało już wcześniej zawarte w tekście. Doprecyzowanie tytułu, który akurat jest najmniej istotnym elementem, choć to właśnie on wzbudza największe kontrowersje (i chyba jednak niesłusznie), nie jest w żadnej mierze uzupełnianiem tekstu o informacje, które się w nim wcześniej nie znalazły. Niczego też nie ogłaszam ani nie dowodzę, Pańskich zarzutów w tej mierze nie potrafię wytłumaczyć inaczej niż tym, że po prostu nie przeczytał Pan tego, co napisałem. Podobnie w pierwszym komentarzu dyskutował Pan z własnymi wyobrażeniami, a nie z moim tekstem, nie wiem więc, jakiej odpowiedzi Pan ode mnie oczekiwał? Jestem otwarty na uwagi i krytykę, ale nie jestem w stanie podejmować dyskusji, której przedmiotem mają być czyjeś niesprecyzowane mniemania na temat nie przeczytanego tekstu, a nie tenże tekst.
„Nauka 2.0” nie istnieje. Ale jeśli jest Pan zwolennikiem tej koncepcji, to komentując anonimowo i w sposób całkowicie dowolny i nie powiązany tekst, którego Pan nie przeczytał (o zaczepkach ad personam już nie wspomnę), źle się jej Pan przysłużył.
@Piotr Tafiłowski: pierwszy akapit Pana tekstu przywołuje (?) dość unikalny eksperyment naukowy Tapscotta, na które w całości składała się i książka w wersji „zerowej”, i duży eksperyment naukowy oparty na mechanizmach klasycznego wiki (serwis do dziś wisi w Sieci, choć wymarły i opanowany przez boty), i przynajmniej jeszcze jedną książkę w wersji powstałej w wyniku zjawisk „dwazerowych o skali, której autorzy (jak sami piszą) zupełnie się nie spodziewali. Nawet nie wiem, co z tego zostało wydane po polsku, nie sprawdzałem, znam tylko oryginały. Myślę, że przeczytał Pan po prostu tłumaczenie polskie i potraktował całe przedsięwzięcie jak… książkę. Myślę też, że przeoczył Pan fakt, iż w historii mechanizmów 2.0 5 lat (od 2006) to krótki odcinek czasu. A to jest czas, po którym np. rozkwit nowoczesnej Wikipedii potrafi się zmienić w schyłek anachronicznej Wikipedii. Cała epoka.
Skoro jednak „Nauka 2.0″ nie istnieje i to bez konieczności uściślenia definicji tego pojęcia, to cóż, komentuje Pan kompletnie nienaukowe dzieło nienaukowca. W tym ujęciu Tapscott istotnie zasługuje na miano „proroka” i „piewcy” nieistniejących bytów. Znikam zatem (jeżelim istniał, przecieżem anonimowy). Transakcję kończę. ja otrzymałem to, czego potrzebowałem dla własnych celów (na temat, który Pana nie interesuje jako nieistniejący ;-). Pan zaś – udatnie pogrzebał świat 2.0 za pomocą paru akapitów tekstu. Tapscott ze stanowiska adiunkta został przeniesiony na stołek proroka oraz piewcy, ale on o tym nie wie, więc też nie ma strat w ludziach. Zatem wszyscy byliby ustatysfakcjonowani. Do bilansu typu win-win brakuje jednak mojego wyjaśnienia, iż zdecydowanie nie znalazłem ani w moich intencjach, ani w moim tekście zaczepek ad personam. Pozdrawiam i żegnam się.
„Myślę też, że przeoczył Pan fakt, iż w historii mechanizmów 2.0 5 lat (od 2006) to krótki odcinek czasu. A to jest czas, po którym np. rozkwit nowoczesnej Wikipedii potrafi się zmienić w schyłek anachronicznej Wikipedii. Cała epoka.” – może więc zdecyduje się Pan, czy to krótki odcinek czasu, czy też cała epoka?
Ja zostałem przez Pana przeniesiony ze stanowiska adiunkta na stołek grabarza, o ile wolno posłużyć się Pańską metaforą, a strat w ludziach również nie zauważam:)
Jeśli kiedykolwiek zdecyduje się Pan przeczytać coś więcej niż sam pierwszy akapit mojego tekstu, to sam Pan być może zauważy, że niczego nie zamierzałem odwoływać ani grzebać. Te zarzuty są po prostu niedorzeczne. Co więcej, osobiście uważam, że żadnej idei nie da się pogrzebać kilkoma akapitami tekstu. Ani nawet setkami grubych tomów. I nigdy nie przyszłoby mi do głowy grzebanie jakiejkolwiek idei, choćby wydawała mi się ona nie wiem jak niemądra (nie mam tu w tej chwili na myśli zjawisk 2.0).
Pozdrawiam również
Oj, to nie była kurtuazja. No cóż, zatem dodam osobisty komentarz. Nwet na pożegnanie zdecydował się Pan tylko na trzy przyjazne gesty.
Wskazał Pan, że:
(1) moja wypowiedź jest wewnętrznie sprzeczna,
(2) posługuję się równie nieodpowiednio wartościujacymi adiunktów określeniami (grabarz vs. prorok i piewca),
(3) (explicite) nigdy pan niczego nie próbował żadnej idei grzebać ani odwoływać
[oraz]
(3) (implicite) fakty opublikowane w pana tekście są prawdziwe, a opinie w pełni słuszne i należycie udokumentowane; nie przeczytałem i nie zrozumiałem nic z Pana tekstu (to już refren), ale gdybym podjął ten wysiłek, wyszłoby na jaw jak jest jedyna przyczyna moich zastrzeżeń: problemy z czytaniem i rozumieniem.
W skrócie zatem (i potem już obiecuję nie odezwać się ani słowem).
Niepotrzebnie Pan pod własnym tekstem częstuje rozmówcę takimi mało związanymi z treścią merytoryczną połajankami jak „niedorzeczne”, „nic pan nie zrozumiał”, „w ogólne nie przeczytał” „niesprecyzowane mniemania na temat nie przeczytanego tekstu”. Nie podjął Pan jednoczesnie żadnego wysiłku odniesienia się do czegoś konkretnego. Pardon, było konkretnie: „„Nauka 2.0” nie istnieje.” Ot taki aksjomat. Dowód otwartości. Mało to wszystko eleganckie, po prostu. Gdyby kto miał ochotę z Panem faktycznie dyskutować na temat Pana tekstu, to pewnie przestał mieć ochotę. Ja także. Chyba jednak „w realu” tym bardziej nie chciałbym z Panem dyskutować.
Krótko odniosę się do trzech akapitów pana ostatniej wypowiedzi.
(1)
= Krótki odcinek czasu (5 lat, to taka fizyczna jednostka miary czasu. Jak dla historyka – mgnienie, przynajmniej niegdyś).
= Cała epoka (zmieniły się paradygmaty zachowań w Sieci, zasięg społeczny tejże, niegdysiejsze nowości technologiczne są zabytkami).
(2) (grabarz)
Pana tekst ma dość niecodziennie autorytatywny i bardzo jednoznaczny tytuł. Skojarzenie se śmiercią jest tu mało dyskusyjne. Odnosząc się do jakiegoś niszowego serwisiku (podaj.net) obwieszcza Pan „jego pierwotna idea dawno już umarła”. To jest ogłoszona explicite śmierć idei (nb. idei sympatycznej mającej się świetnie). Musimy zostać tylko przy tym, bo nie mam ochoty analizować bardziej pośrednich obwieszczeń końca czegoś-tam (typu „nie zdał egzaminu”). Zamiast tego przyznaję w geście dobrej woli że pańskie twierdzenie „Nauka 2.0 nie istnieje” mylnie skojarzyłem z obwieszczeniem o jej śmierci. Przy pana założeniach (że nie istniała nigdy) – nie mogła przecież umrzeć. Tak czy inaczej, tekst pana promieniuje poetyką śmierci i niebytu; taką Pan się posługuje nomenklaturą. Przynajmniej w tych nielicznych fragmentach, które zdolałem przeliterować ;-)
(3)
Mimochodem powyżej dostarczyłem przykładów zaprzeczających pana zapewnieniom. Jednocześnie zastrzega pan tak gorąco „niczego nie zamierzałem odwoływać ani grzebać” oraz „osobiście uważam, że żadnej idei nie da się pogrzebać za pomocą…” Zatem widzę tylko dwie możliwości:
(M.1) Pan także swojego tekstu nie przeczytał (to możliwe, dlatego zwykle staram się własne teksty czytać po napisaniu, nb. w tych komentarzach jest to mało owocne wobec braku możliwosci edycji)
(M.2) Z rozmysłem czepia się Pan słówek zamiast niewątpliwie czytelnej dla Pana osi różnicy zdań.
Stawiam na M.2. Szkoda, że pan się na to zdecydował. Pana poprzednio demonstrowana umiejętność nie czepiania się literówek i przecinków interlokutorów – zdawała się lepiej rokować. A jednak zdobył się Pan tylko na próbę poniżenia pinterlokutora za pomocą udawania, iż jego niewinne figurynki retoryczne pojmuje wprost i dosłownie jak (nie przymierzając) traslate.google.com.
Czytając tekst miałem wrażenie, że tezy autora są absurdalne, całkowicie mijają się z istotą zjawiska, które sprowadzone zostało do kilku – rzeczywiście dość pretensjonalnych – haseł.
Czytając jednak odpowiedzi autora w komentarzach, ostatecznie przyznaję mu rację. Jeżeli ktoś legitymujący się autorytetem naukowca jest tak niespotykanie głuchy na jakiekolwiek sprzężenie zwrotne – nie mamy szans na żadne Web 2.0 w nauce. Niech żyją Zeszyty Naukowe, których nikt nie czyta, a więc nikt nie będzie z nimi dyskutował.
Tymczasem udaję się na stronę, aby napisać tekst „Koniec Internetu!” i opublikować go na ścianie swojego pokoju.
Redakcja Biuletynu EBIB przyjęła moją propozycję, aby jeden z przyszłych numerów poświęcony był krytycznej analizie projektów 2.0 w nauce/informacji/kulturze (info). Zapraszam do wysyłania tekstów do numeru, który ukaże się w marcu 2012.
[...] Również polecam: (choć nawiązuje raczej do problemów nauki historii, niż socjologii) P. Tafiłowski Koniec świata 2.0 [...]
Kilka uwag w sprawie czegoś, co nazywamy Nauką 2.0:
1. O ile istnieje już internetowa infrastruktura umożliwiająca publikowanie w Sieci prac naukowych na zasadzie OA lub licencji CC, społeczne recenzowanie tych prac, prowadzenie w Internecie dyskusji naukowych, nawiązywanie współpracy – o tyle brak jest jeszcze woli i zaangażowania naukowców, przynajmniej w Polsce. Ale to nie świadczy o upadku idei Nauki 2.0, lecz o tym, że idea jeszcze nie przerodziła się w praktykę.
2. Naukowców rozgrzesza system oceny parametrycznej jednostki naukowej i system awansów – tylko prace recenzowane i opublikowane w punktowanych czasopismach i książkach się liczą. Więc po co mieliby oni publikować w innych formach? Ale czy obecny system punkcikowania dorobku utrzyma się?? Myślę, że zawali się pod ciężarem swojej głupoty, a wtedy Nauka 2.0 przejdzie z etapu idei na etap praktyki.
3. Problem finansów także nie jest istotną przeszkodą. Przecież za pracę, której efektem są publikacje dostajemy wynagrodzenie. Tak więc nic nie stoi na przeszkodzie byśmy publikowali na zasadzie OA lub licencji CC.
Świat 2.0 dopiero przed nami.