• 85. Nowa wersja Europeany Europeana pozwala na dostęp do ponad 50 milionów pozycji cyfrowych, agregowanych z tysięcy europejskich instytucji dziedzictwa. Dostępna jest już nowa wersja tego portalu. www.europeana.eu #zbiory
  • 84. Epidemia dokumentowana na Twitterze - dostępne dane Na GitHubie udostępniane są kolejne części kolekcji 50 mln twittów dokumentujących pandemię koronawirusa (od 20 stycznia). Ze względu na ograniczenia wynikające z polityki Twittera wobec publikowania i przetwarzania danych, dostępne są jedynie numery identyfikacyjne twittów. Metoda gromadzenia została opisana w osobnej publikacji dostępnej na arXiv. github.com #dane
  • 83. Wirtualna biblioteka do walki z cenzurą W Dniu Walki z Cyfrową Cenzurą (12 marca) organizacja pozarządowa Dziennikarze Bez Granic uruchomiła The Uncensored Library. Są to specjalny serwer i mapa do gry Minecraft, przygotowane we współpracy z DDB Germany, BlockWorks oraz MediaMonks. W wirtualnej rzeczywistości stworzono neoklasycystyczny budynek biblioteki, w którym wydzielono pomieszczenia poświęcone Egiptowi, Rosji, Wietnamowi, Meksykowi, Arabii Saudyjskiej oraz Dziennikarzom Bez Granic. Cyfrowe regały zostały wypełnione książkami, w których zamieszczono zakazane artykułu pochodzące z wymienionych państw. Celem projektu, poprzez udostępnienie tych materiałów młodym ludziom, jest walka z dezinformacją oraz zwiększenie ich świadomość na temat sytuacji politycznej. rsf.org #gry
  • 82. Etyczne aspekty upowszechniania poglądów nienaukowych Stanowisko Komitetu Etyki w Nauce Polskiej PAN. Warto przeczytać choćby część poświęconą charakterystyce zjawiska pseudonauki. journals.pan.pl #nauka
  • 81. Metadane do opisywania epidemii koronawirusa Zespół Schema.org udostępnił aktualizację rozwijanej przez siebie ontologii metadanych. M.in. pojawił się nowy słownik umożliwiający opisywanie materiałów dokumentujących epidemię COVID-19, w tym statystyki zarażeń czy informacje o ograniczeniu przemieszczania się. blog.schema.org #metadane
  • 80. Humanistyka dla wszystkich Na witrynie Humanities for All można znaleźć informacje o ponad 1500 projektach związanych z szeroko pojętą humanistyką, prowadzonych na uniwersytetach i collage'ach w Stanach Zjednoczonych. Wśród nich znajdują się projekty związane z humanistyką cyfrową. humanitiesforall.org #dh
  • 79. Problem dostępności danych w alternatywnych metrykach tekstów naukowych Autorzy zanalizowali 2.6 mln tweetów, publikowanych od 2007 roku i zawierających odniesienia do 1.5 tys. najczęściej cytowanych (via Altmetric) artykułów naukowych. Prawie 15 proc. z tych tweetów było niedostępnych w kwietniu 2019 roku, co może podważać wartość szacowania jakości tekstów naukowych z wykorzystaniem danych z mediów społecznościowych. doi.org #dane
  • 78. Archiwizacja filmików z Vine Serwis Vine.co zamknął możliwość dodawania nowych materiałów 20 stycznia 2017 i był stopniowo wygaszany do pełnienia roli archiwum (obecnie aby dostać się do filmiku trzeba znać jego URL). Zanim jednak ogłoszono plany zachowania go w tej formie grupa ArchiveTeam postanowiła podjąć próbę jego archiwizacji. W celu dokonania selekcji zasobów do zachowania kierowano się ich popularnością, jednakże nie wykorzystano ilości odtworzeń lub innych statystyk wewnętrznych, a linki do Vine'a zamieszczane w tweetach. Autorzy artykułu omawiają ten model działania (zwracając uwagę na to, że z jednej strony pozwala on ocenić popularność filmików, a z drugiej pomija inne media społecznościowe, na których udostępniano linki do Vine'a, np. Facebooka). culturalanalytics.org #webarchiving
  • 77. Twitter modyfikuje zasady naukowego użycia swoich danych Twitter zmodyfikował swoje zasady dla deweloperów, aby ułatwić prowadzenie niekomercyjnych badań z wykorzystaniem jego API i danych. M.in. znika ograniczenie w objętości korpusów tweetów (a właściwie ich ID), które można legalnie udostępnić do badań. techcrunch.com #dane
  • 76. Archiwum Historii Audiowizualnej Warmii i Mazur - nowe archiwum społeczne, koncentrujące się na ratowaniu, opracowywaniu i udostępnianiu nagrań historii mówionej. naszehistorie.pl #historia
  • 75. Zbiory z Berkeley Biblioteka Uniwersytetu Kalifornijskiego w Berkeley uruchomiła serwis ze zbiorami online. Portal korzysta ze standardu IIIF oraz udostępnia dane na temat pobrań poszczególnych obiektów. Na stronie zobaczyć można np. reakcję Miłosza na wiadomość o otrzymaniu Nobla. digital.lib.berkeley.edu #zbiory
  • 74. Biblioteki w walce o prywatność Library Freedom to inicjatywa, której celem jest udostępnienie bibliotekarkom i bibliotekarzom zasobów edukacyjnych na temat prywatności i ograniczania swojego śladu cyfrowego. libraryfreedom.org #prywatność
  • 73. Zobacz szczegóły, które mogłeś pominąć Google Art Camera to projekt digitalizacji dzieł sztuki (i nie tylko) z wykorzystaniem aparatu wykonującego zdjęcia w niezwykle wysokiej rozdzielczości. Na stronie projektu dostępne jest prawie 14 tysięcy cyfrowych reprodukcji pochodzących z muzeów i galerii całego świata. Umożliwiają one przyjrzenie się najdrobniejszym detalom, w tym pociągnięciom pędzla, impastom czy mikropęknięciom kijów do krykieta. Kilkanaście obiektów zostało opatrzonych dodatkowymi komentarzami. artsandculture.google.com #digitalizacja
  • 72. Nowa odsłona Pomorskiej Biblioteki Cyfrowej Partnerem wiądącym Biblioteki jest Politechnika Gdańska. Serwis działa na oprogramowaniu DInGO dLibra 6.2.7. pbc.gda.pl #digitalizacja
  • 71. Beyond Scrolls & Screens Dzięki wykorzystaniu Google Art Camera oraz uczenia maszynowego przygotowano eksperyment umożliwiający przyglądanie się z bliska drobnym detalom z 6 japońskich parawanów i zwojów pochodzących z różnych epok historycznych. Oprogramowanie wyszukuje i przybliża wskazane wspólne elementy (np. rośliny, instrumenty, wachlarze), które występują na tych dziełach sztuki, co ma na celu pokazać występujące pomiędzy nimi podobieństwa i powiązania experiments.withgoogle.com #ai
  • 70. Miliardy sekwencji melodyjnych wygenerowanych maszynowo All The Music to program pozwalający na maszynowe generowanie zbioru zawierającego każdą możliwą melodię (w formacie MIDI). Jak przekonują jego inicjatorzy, projekt ma kilka warstw: 1) przygotowanie matematycznej koncepcji generowania melodii 2) zadanie pytań filozoficznych o podstawy twórczości 3) wypowiedź w dyskusji na temat prawa autorskiego w muzyce. Udało się wygenerować łącznie około 68 miliardów sekwencji. www.theatlantic.com #oprogramowanie
  • 69. Wsparcie przy przeglądaniu usuniętych zasobów WWW Przeglądarka Brave od wersji 1.4 została wyposażona w system wychwytujący wybrane błędy HTTP (związane z niedostępnością żądanej strony) i proponujący użytkownikowi/użytkowniczce kopie z Wayback Machine. blog.archive.org #webarchiving
  • 68. 'Użytkownicy' czy po prostu 'ludzie'? Olia Lialina o tym, dlaczego jeszcze warto mówić o 'użytkownikach': w interakcjach człowiek-komputer komputery i oprogramowanie stają się coraz bardziej 'przezroczyste', nie dostrzegamy ich pośrednictwa. Don Norman czy Lev Manovich zachęca do mówienia o 'ludziach' zamiast o 'użytkownikach' - to jednak ukrywa pośrednictwo komputerów i sprawia, że trudniej zadawać pytania o prawa użytkowników systemów informatycznych. Co więcej: we need to take care of this word because addressing people and not users hides the existence of two classes of people — developers and users. contemporary-home-computing.org #język
  • 67. Dlaczego Instagram odrzuca linki? O tym jak i dlaczego Instagram zwalcza linkowanie. Unikanie linkowania do zewnętrznych zasobów is a strategy, designed to keep people from the open web, the place where they can control how, and whether, someone makes money off of an audience. anildash.com #internet
  • 66. Gotowe kody źródłowe do analizy danych kulturowych Jupyter notebooks to interaktywne notatniki pozwalające uruchomić i testować kod. Na GitHubie znajdziemy listę notatników, które umożliwiają (w Phytonie) analizować i wizualizować dane kulturowe - od metadanych zdigitalizowanych zbiorów po przetwarzanie tekstu czy pracę z mapami. github.com #dh
  • 65. The most timeless songs The most timeless songs to projekt badający współczesną recepcję starej muzyki. Dzięki danym ze Spotify można wizualizować popularność starych utworów - zestawienia generowane dla poszczególnych lat czy dekad pozwalają pokazać, jaki przebój rzeczywiście wszedł do kanonu. Interpretując udostępnione dane warto zwrócić uwagę, że Spotify zlicza odtworzenia utworów bez rozróżnienia wieku użytkowników: na wizualizacje współczesnej recepcji starej muzyki mają więc wpływ także ci, którzy znają ją jeszcze ze swojej młodości. pudding.cool #dane
  • 64. Archiwum klubu Mózg - nagrania koncertów Mózg to jedna z najważniejszych scen muzycznych w Polsce. Archiwum tego bydgoskiego klubu dostępne jest online. Znajdziemy w nim m.in. dokumentację wydarzeń, nagrania koncertów, płyty (Czas na Yass z 1997 r.), wywiady z artystami. To jak na razie najciekawsze polskie odkrycie digitalizacyjne w 2020 roku. Serwis zbudowany jest na oprogramowaniu Omeka. archiwum.mozg.art.pl #digitalizacja
  • 63. Miliony obiektów ze Smithsonian Institution Smithsonian Institution udostępnił prawie 3 mln obiektów cyfrowych (w tym skany 3D) ze swoich zbiorów. Z wszystkich korzystać można bez ograniczeń (zostały oznaczone CCO). Dostępne jest też API, zrzut metadanych opublikowano na GitHubie. Chyba taki model udostępniania dużych zbiorów można uznać za wzorcowy. www.si.edu #digitalizacja
  • 62. Infografiki Emmy Willard (1787–1870) W Public Domain Review przeczytamy o XIX-wiecznej szkole tworzenia wizualizacji. Emma Willard była edukatorką, feministką, aktywnie działającą na rzecz dostępu kobiet do edukacji oraz praw obywatelskich. Była też autorką podręczników, w których wykorzystywała wizualizacje jako uzupełnienie tekstów merytorycznych. publicdomainreview.org #wizualizacje
  • 61. Analiza geograficzna przypisów w najlepszych artykułach z WoS Lutz Bornmann i współautorzy zbadali, z jakich krajów pochodzą publikacje cytowane w najpopularniejszych artykułach naukowych (top 1 proc. najczęściej cytowanych tekstów z bazy Web of Science). Dane dla lat 2004-2013 dokumentują dominację USA i UK. Udział 'polskich' przypisów jest na poziomie 0.35 (zamykający zestawienie Iran ma 0.20). journals.plos.org #nauka
  • 60. No raw data, no science Redaktor naczelny czasopisma naukowego Molecular Brain poprosił autorów części zgłaszanych do niego artykułów o udostępnienie surowych danych badawczych ("revise before review"). 97 proc. autorów nie udostępniło takich danych, część z nich dodatkowo wycofała swoje zgłoszenie do czasopisma. Autor przekonuje, że nieudostępnianie surowych danych badawczych uniemożliwia powtórzenie badania i właściwą ocenę przyjmowanego do czasopisma artykułu. doi.org #nauka
  • 59. Metadane 38 milionów URLi udostępnianych na Facebooku Social Science One (Harvard) we współpracy z Facebookiem przygotował zbiór metadanych na temat 38 mln adresów URL udostępnionych na Facebooku minimum 100 razy w okresie od 1 stycznia 2017 do 31 lipca 2019. Metadane opisują nie tylko sam URL, ale też reakcje użytkowników czy dane o zgłoszeniach do moderacji. Pełen opis zbioru dostępny jest w tym dokumencie. Aplikować o dostęp można na stronie Social Science One. socialscience.one #dane
  • 58. Poezja w czasach flarfów Rozmowa Moniki Redzisz z Piotrem Mareckim o poezji generowanej komputerowo. Nie o to chodzi, żeby być programistą, tylko o to, by zdawać sobie sprawę z tego, czym programowanie jest. Żyjemy w kulturze algorytmicznej. Bardzo wiele tekstów – na przykład informacje o pogodzie czy sporcie – już teraz jest generowanych automatycznie. Dzieje się tak wszędzie tam, gdzie jest duża ilość powtarzalnych informacji. Powinniśmy mieć umiejętność nazywania procesów, które dzieją się na naszych oczach. Takich zjawisk jak technoteksty nie wolno nam ignorować, bo to jest właśnie nasza rzeczywista kultura i musimy mieć kompetencje, by umieć to nazwać i ocenić. www.sztucznainteligencja.org.pl #literatura
  • 57. Technologie cyfrowe w muzeach - zachowania zwiedzających Osoby, które chciałyby badać wykorzystanie technologii cyfrowych w muzeach, mogą skorzystać z danych zebranych w 2017 roku w Chinach. Udostępniono dane z 800 obserwacji, dokumentujące rodzaj wykorzystywanych narzędzi cyfrowych (AR, VR, kioski multimedialne itp.), profil zwiedzających oraz sposób ich relacji z ekspozycją. Kontekst danych został opisany w cytowanej niżej pracy. github.com #muzea
  • 56. Statystyki niemieckich muzeów (2018) Na TT podsumowanie raportu "Statistische Gesamterhebung an den Museen der Bundesrepublik Deutschland". Ponad 111 mln wizyt w niemieckich muzeach w 2018 roku, 68 proc. muzeów posiada własną stronę; istnieje korelacja między ilością wizyt w muzeum a posiadaniem lub nieposiadaniem własnej strony WWW przez muzeum; 29 proc. niemieckich muzeów w 2018 roku publikowało swoje zbiory online. Raporty publikowane są z rocznym opóźnieniem. twitter.com #muzea
1 2 3 4