Algebrą (lub: strukturą algebraiczną, algebrą abstrakcyjną) nazywamy zbiór wraz z rodziną operacji na nim zdefiniowanych. Algebra uniwersalna jest działem matematyki, który zajmuje się badaniem ogólnych własności struktur algebraicznych. Szczególną rolę odgrywają rozmaitości algebr, czyli klasy wszystkich algebr (danego typu), które spełniają zadany zbiór równości. Wiele struktur ma swoje źródło w badaniach z innych dziedzin nauki – algebraicy nie muszą znać pochodzenia i motywacji stojącej za rozważanymi obiektami (chociaż bardzo wzbogaca to badania!) i mogą się skupić na czystej analizie ich własności i poszukiwaniem analogii między nimi.
Podczas referatu przedstawię różnorodne przykłady algebr, które m.in.
W szczególności pokażę, jak narzędzia algebry uniwersalnej okazały się przydatne w opisaniu struktury quandli medialnych (rozmaitości generowanej przez quandle Alexandera) i stworzeniu algorytmów do ich zliczania [2], istotnie rozszerzających znane rezultaty.
Podręczniki [1] i [3] polecam jako dobry wstęp do Algebry Uniwersalnej, gdyby kogoś zainteresował temat.
[1] C. Bergman (2011), Universal Algebra – Fundamentals and Selected Topic, Chapman and Hall/CRC.
[2] P. Jedlička, A. Pilitowska, D. Stanovský, A. Zamojska-Dzienio (2015), "The structure of medial quandles", Journal of Algebra, 443, 300–334.
[3] A. Romanowska (2020), Algebra i jej zastosowania Oficyna Wydawnicza Politechniki Warszawskiej.
Statystyka jest sztuką podejmowania decyzji w obliczu niepewności. Dostarcza narzędzi do opisywania i wyjaśniania rzeczywistości, do prognozowania i weryfikowania hipotez. Przez długi czas jedyną powszechnie uznawaną teorią opisującą niepewność był rachunek prawdopodobieństwa. W ostatnich kilkudziesięciu latach zaproponowano kilka nowych podejść do opisu i analizy niepewności, rozszerzających klasyczną teorii prawdopodobieństwa lub ortogonalnych do niej. Ich wspólną cechą jest uelastycznienie metod klasycznych, tak aby można je było łatwiej dostosować do rzeczywistego charakteru dostępnych informacji i lepiej sobie radzić z modelowaniem innych niż losowość rodzajów niepewności, takich – na przykład – jak brak precyzji.
W ten sposób statystyka została skonfrontowana z teorią zbiorów rozmytych. Po okresie początkowych antagonizmów badacze zdali sobie sprawę, że statystyka i teoria zbiorów rozmytych nie powinny być uważane za konkurencyjne, gdyż opisują inne aspekty niepewności, natomiast mogą się z powodzeniem uzupełniać. Zauważono, że poszerzanie statystyki o analizę danych rozmytych nie tylko pozwala rozwiązać niektóre problemy, ale też generuje nowe ciekawe pytania. W szczególności, rozróżnienie między tzw. zbiorami ontycznymi i epistemicznymi (por. [2]) prowadzi do odmiennych definicji wariancji, a co za tym idzie, wymaga innych narzędzi wspomagających wnioskowanie. Analitykom danych i statystykom z wydatną pomocą przyszła informatyka, która otworzyła drogę rozwojowi technik permutacyjnych oraz metod repróbkowania, w tym bootstrapu, bez których efektywne wnioskowanie na podstawie danych rozmytych nie byłoby możliwe (por. [1, 3, 4]).
W prezentacji postaramy się naszkicować wzajemne relacje między statystyką i teorią zbiorów rozmytych, wskazać niektóre problemy i wyzwania, które pojawiły się na przecięciu obu teorii oraz zasygnalizować pewne problemy otwarte.
[1] A. Blanco-Fernández, M.R. Casals, A. Colubi, N. Corral, M. Garcia-Bárzana, M.A. Gil, G. González-Rodriguez, M.T. López, M.A. Lubiano, M. Montenegro, A.B. Ramos-Guajardo, S. de la Rosa de Sáa, B. Sinova (2014), "A distance-based statistic analysis of fuzzy number-valued data", International Journal of Approximate Reasoning, 55, 1487–1501.
[2] I. Couso, D. Dubois (2014), "Statistical reasoning with set-valued information: Ontic vs. epistemic views", International Journal of Approximate Reasoning, 55, 1502–1518.
[3] P. Grzegorzewski (2020), "Two-sample dispersion problem for fuzzy data", w: M.J. Lesot i poz. (red.), Information Processing and Management of Uncertainty in Knowledge-Based System (IPMU 2020), Springer, pp. 82–96.
[4] P. Grzegorzewski, O. Hryniewicz, M. Romaniuk (2020), "Flexible resampling for fuzzy data", International Journal of Applied Mathematics and Computer Science, 30, 281–297.
W 1908 r. Hermann Minkowski jako pierwszy zdał sobie sprawę, że teoria opublikowana trzy lata wcześniej przez jego byłego studenta Alberta Einsteina (nazwana później szczególną teorią względności), ukazała radykalnie nowy obraz świata. Oto czas i przestrzeń – dotąd rozłączne pojęcia – okazały się względnymi, zależnymi od obserwatora aspektami czterowymiarowej „czasoprzestrzeni”. Einsteinowski postulat, że nic – ani cząstki, ani oddziaływania, ani jakiekolwiek związki przyczynowo-skutkowe – nie może rozchodzić się szybciej niż światło w próżni, w naturalny sposób wpisuje się w ten geometryczny obraz. Wyraża się go za pomocą tzw. krzywych przyczynowych oraz relacji przyczynowego poprzedzania, która wiąże te punkty czasoprzestrzeni, między którymi możliwa jest podświetlna komunikacja.
Jak jednak uczy fizyka, punktowe cząstki i zdarzenia są daleko idącą idealizacją i zasadne jest pytać, jak rygorystycznie opisywać przyczynowość dla zjawisk nielokalnych. W referacie, po popularnonaukowym wprowadzeniu w geometrię czasoprzestrzeni (także zakrzywionych!), opowiem o prowadzonych wspólnie z M. Ecksteinem badaniach nad rozszerzeniem teorii przyczynowości na miary probabilistyczne [1]. Skupię się zwłaszcza na zastosowaniu rozwiniętego formalizmu do opisu przyczynowej ewolucji miar probabilistycznych, które prowadzi do eleganckiego, bo niezależnego od obserwatora, probabilistycznego uogólnienia krzywej przyczynowej [2], a także do głębokiego związku między przyczynowością a tzw. równaniem ciągłości – jednym z najważniejszych równań w fizyce [3].
[1] M. Eckstein, T. Miller (2017), "Causality for nonlocal phenomena" Ann. Henri Poincaré, 18(9), 3049–3096.
[2] T. Miller (2017), "Polish spaces of causal curves", J. Geom. Phys., 116, 295–315.
[3] T. Miller (2021), "Causal evolution of probability measures and continuity equation", arxiv :2104.02552.