==English version below==
49 Zjazd Fizyków Polskich 2025 będzie gościć w Katowicach. Konferencja odbędzie się w dniach od piątku 5 września do czwartku 11 września 2025 włącznie. Organizatorami są Polskie Towarzystwo Fizyczne oraz Uniwersytet Śląski w Katowicach.
Harmonogram (plik pdf, wersja interaktywna, wersja szczegółowa):
- 5 września - przyjazdy i rejestracja
- Poranna uroczysta sesja 6 września odbędzie się w Filharmonii Śląskiej z udziałem gościa honorowego - laureatki Nagrody Nobla w 2023 roku, prof. Anne L'Huillier.
- Weekend 6-7 września główna tematyka - dydaktyka, działalność młodych naukowców, duże eksperymenty, konkurs na wystąpienie i poster dla studentów InnoFusion 2025
- 8-11 września - sesje tematyczne
- 7,11 września - 2 sesje wyjazdowe w Planetarium - Śląskim Parku Nauki.
==English version==
The 49th Congress of Polish Physicists is organised in 2025 in Katowice. The conference will be held from Friday, 5th September, to Thursday, 11th September 2025. The organisers are the Polish Physical Society and the University of Silesia in Katowice.
Timetable (pdf file, interactive version, detailed version):
- 5th September - arrivals and registration
- the opening ceremony takes place during the morning session on Saturday, 6th September, in the Silesian Philharmonic building. The guest of honour of the conference, prof. Anne L'Huillier, who won the Nobel Prize in Physics 2023, will give a special lecture.
- the main topics covered during the weekend of 6th-7th September 2025 are physics teaching, the coverage of physical topics in mass media, the propagation of research results in popular form, the achievements of young scientists and the biggest physics centres in the world, the InnoFusion 2025 students' competition.
- from 8th September on - topical sessions
- on 7th and 11th September - 2 sessions outside of the main venue in the Planetarium - Silesian Science Park.
Projekt ">>Na pograniczu<< - nauka, muzyka, gospodarka" dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki w ramach Programu Społeczna odpowiedzialność nauki II.
(POPUL/SP/0532/2024/02, kwota dofinansowania 67 000 zł)
Projekt "Od Atomów do Społeczności: ogólnokrajowy konkurs dla studentów na najlepsze wystąpienie i poster z zakresu wykorzystania fizyki w różnych dyscyplinach naukowych - InnoFusion" został dofinansowany przez Górnośląsko-Zagłębiowską Metropolię w ramach Programu "Metropolitalny Fundusz Wspierania Nauki".
(RW/07/2025, kwota dofinansowania 31 320 zł, wkład własny 3 480 zł)
Procesy poznawczego przetwarzania informacji mają istotne znaczenie podczas uczenia się. Znajomość rozwoju poznawczego człowieka, funkcjonowania uwagi, percepcji czy pamięci pozwala na dostosowanie metod nauczania, tym samym wspieranie wyników edukacyjnych. Integracja psychologii poznawczej z praktyką edukacyjną może zwiększać efektywność procesu nauczania, uwzględniającego naturalne zdolności i ograniczenia ludzkiego umysłu.
Wychodząc naprzeciw potrzebom uczniom z SPE i nauczycielom, szeroko pojmowanego środowiska oświatowego, mając zarazem na uwadze jakość edukacji wymienionych uczniów z różnymi potrzebami edukacyjnymi, Ministerstwo Edukacji Narodowej wprowadziło szereg zmian w prawie, których głównym celem jest włączenie tych uczniów do grupy rówieśniczej i zapewnienie im wszechstronnego wsparcia, z jednoczesnym wsparciem nauczycieli, specjalistów. Zasadniczą zmianą, w porównaniu z dotychczasowym funkcjonującym stanem prawnym, jest umożliwienie zróżnicowanego – oraz elastycznego i dostosowanego do różnych potrzeb uczniów ze specjalnymi potrzebami edukacyjnymi – podejścia do organizacji kształcenia i pomocy psychologiczno-pedagogicznej. Uczniowie ze specjalnymi potrzebami edukacyjnymi przejawiają różnorodne potrzeby - różnią się między sobą zarówno pod względem indywidualnych predyspozycji, stanu zdrowia, jak i możliwości intelektualnych.
Podczas wystąpienia opowiem o przykładowym konspekcie lekcji wprowadzającej do zagadnień szczególnej teorii względności na poziomie liceum ogólnokształcącego. Poziom trudności jest dostosowany nie tylko dla 4 klasy, w której elementy STW stanowią temat osobnego działu, ale również dla klasy 1 jeżeli materiał ten miałby pojawić się jako uzupełnienie działów związanych z kinematyką i dynamiką. W trakcie wystąpienia przedstawię zarys wydarzeń w historii fizyki, które doprowadziły do powstania tej teorii i były motywacją do sformułowania jej w obecnie znanej nam formie. Na tej podstawie opowiem jak postulaty STW korespondują z teorią elektrodynamiki klasycznej. Następnie pokażę sposoby wyprowadzania wzorów na dylatację czasu i skrócenie Lorentza wraz z przykładowymi obliczeniami pomagającymi w zrozumieniu założeń i konsekwencji STW. Przedstawię również proste przykłady diagramów czasoprzestrzennych oraz omówię paradoks bliźniąt na ich podstawie.
Treść omawianych zagadnień została przygotowana na podstawie lekcji przeprowadzonych w klasach 1 i 2 w XLI LO im J. Lelewela w Warszawie.
Dla bardzo wielu uczniów pojęcie strumienia indukcji magnetycznej jest trudne do zrozumienia. Pokażę, że można wszystkie treści dotyczące powstawania i przesyłania prądów indukcyjnych, które są zapisane w podstawie programowej wyjaśnić bez pojęcia strumienia indukcji. Sprawdziłem na swoich uczniach, że takie podejście przynosi lepsze skutki niż tradycyjny opis zjawiska indukcji elektromagnetycznej.
Podczas wykładu przedstawię, jak na co dzień wykorzystuję sztuczną inteligencję w badaniach naukowych i pracy akademickiej, ze szczególnym uwzględnieniem analizy danych — dziedziny, której podstawy warto już dziś rozwijać na etapie szkolnym. W wielu przedmiotach szkolnych eksploracja danych odgrywa kluczową rolę, dlatego na lekcjach warto także podkreślać jej znaczenie i poszukiwać możliwości wykorzystania.
W części warsztatowej na ciekawych przykładach zaprezentuję narzędzia oparte na języku Python wraz z dedykowanymi bibliotekami do analizy danych, które można z łatwością wykorzystać w pracy dydaktycznej do efektywnej analizy i wizualizacji. Dzięki temu możliwe jest praktyczne wsparcie pracy z materiałem naukowym oraz rozwijanie umiejętności analitycznych.
Na przestrzeni ostatnich stu kilkudziesięciu lat byliśmy świadkami niesamowitego postępu naukowego i technologicznego. W tym okresie ludzkość poznała promieniotwórczość naturalną, pierwszy antybiotyk, motoryzację, Internet oraz rozpoczęła eksplorację kosmosu. Na początku XX wieku powstała mechanika kwantowa - teoria, która już od swego początku budziła wielkie emocje i kontrowersje, a dzięki której dziś jesteśmy w stanie zrozumieć zjawiska fizyczne w otaczającym nas świecie. Wiele wskazuje na to, że w niedalekiej przyszłości mechanika kwantowa stanie się nam jeszcze bliższa za sprawą komputerów i komunikacji kwantowej. W swoim krótkim wykładzie postaram się przybliżyć najważniejsze koncepcje i osiągnięcia w rozwoju mechaniki i technologii kwantowych, które mają szansę zrewolucjonizować podejście do przetwarzania informacji.
Celem wystąpienia jest zaprezentowanie układu doświadczalnego pozwalającego badać i prezentować siły działające na ciała poruszające się ruchem krzywoliniowym. Dynamiczne aspekty ruchu krzywoliniowego omawiane są najczęściej tylko teoretycznie. Nauczanie mechaniki, będącej podstawą wiedzy fizycznej, tradycyjnie rozpoczyna się od omówienia ruchu prostoliniowego, a wręcz tylko ruchu jednowymiarowego. Ma to miejsce nie tylko w nauczaniu powszechnym, ale także w szkolnictwie wyższym. U podłoża tej metody/tradycji wydaje się leżeć zasada stopniowania złożoności wprowadzanych do nauczania zagadnień. Ta zaś bierze się prawdopodobnie z powszechnego przekonania, że łatwiej jest przejść od szczegółu do ogółu, niż na odwrót. Jednak doświadczenia z pracy ze studentami (nawet wyższych lat studiów), lektury dostępnych opracowań zagadnień z mechaniki, wskazują na to, że związane z tym uproszenia często prowadzą do wyrobienia niewłaściwego wyobrażenia o ogóle/całości zagadnienia. Co gorsze, te niewłaściwe wyobrażenia fizyczne trudno jest zmienić. Zrozumienie przyczyn ruchu krzywoliniowego, czyli sił, jest rzeczywiście dużym wyzwaniem dla uczniów, studentów. Zastosowane przez nas nowoczesne czujniki siły i przyspieszenia oraz rejestracja danych w czasie rzeczywistym umożliwiają obserwowanie, jak wartość sił występujących w obserwowanym ruchu zmienia się w jego trakcie. Wizualizacja tych danych pozwala na dokładną analizę zależności między wielkościami opisującymi ruch i jego przyczynami. Sprzyja to lepszemu zrozumieniu podstawowych prawidłowości zjawisk fizycznych, związków przyczynowo-skutkowych w dowolnym ruchu (a więc także krzywoliniowym), ułatwia rozwijanie prawidłowej intuicji fizycznej. Układ zaprojektowałyśmy jako kompaktowy i łatwy w obsłudze, może więc on pełnić rolę wszechstronnej pomocy dydaktycznej zarówno w ramach systematycznego nauczania, jak i podczas pokazów fizycznych czy warsztatów. Wierzymy, że nasza propozycja nie tylko wzbogaci sposób przekazywania wiedzy z mechaniki klasycznej, ale także zainspiruje do szerszego wykorzystania nowoczesnych narzędzi eksperymentalnych w dydaktyce fizyki. Prezentowany układ pomiarowy jest według nas krokiem w stronę bardziej zrozumiałej, angażującej i skutecznej edukacji nauk ścisłych.
Przedstawione zostaną założenia teoretyczne oraz opis sposobu wdrożenia wybranych metod dydaktycznych na ćwiczeniach rachunkowych z podstaw mechaniki dla pierwszego semestru fizyki indywidualnej na Wydziale Fizyki Uniwersytetu Warszawskiego. Metody te obejmują:
- elementy Inquiry Based Learning,
- peer learning,
- gamifikacja zajęć,
- elementy turniejów fizycznych.
Przedstawione zostaną wnioski z własnych badań ewaluacyjnych oraz z ewaluacji zajęć przez studentów, co pozwoli na zderzenie perspektyw nauczyciela i ucznia (studenta). Dodatkowo uwzględnione zostaną doświadczenia z hospitacji takich zajęć przez specjalistów dydaktyków spoza dyscypliny nauki fizyczne.
Szkoły letnie (ang. summer schools, academic summer camp) stają się co raz bardziej powszechnym elementem kształcenia akademickiego. Dowodem jest istotny wzrost liczby szkół letnich organizowanych przez europejskie i amerykańskie uniwersytety. Szkoły letnie i ich kalendarzowe odmiany mogą i powinny stać się skutecznym katalizatorem procesu umiędzynarodowienia szkolnictwa wyższego w Polsce.
Wieloletnie doświadczenia amerykańskie oraz doświadczenia niektórych uniwersytetów europejskich pokazują, że szkoły letnie mogą stanowić ważny element strategii oraz praktyki umiędzynarodowienia studiów oraz mogą ułatwić wdrażanie międzynarodowych standardów kształcenia. Organizacja szkół letnich wymusza silniejsze powiązanie programów kształcenia z otoczeniem społeczno-gospodarczym, szczególnie z innowacyjnym biznesem oraz stwarza możliwość wprowadzenia do kształcenia akademickiego specjalistów spoza uczelni. Metodologia tworzenia programów szkół letnich, nazywana często pedagogiką międzynarodowych kursów krótkoterminowych (ang. the pedagogy of international short-term courses) powinna uwzględnić dwie kluczowe kwestie: po pierwsze - najważniejsze założenia innowacyjnej pedagogiki uniwersyteckiej oraz kwestie dotyczące specyfiki kursów międzynarodowych.
Doświadczenia tych uniwersytetów, które podjęły się trudu organizacji szkół letnich pokazują, jak ważną rolę w zakresie umiędzynarodowienia procesu kształcenia one pełnią. Atrakcyjne kwalifikacje podnoszące rynkową wartość absolwentów, które można nabyć w ramach „intensywnych krótkich programów” stanowią znacznie silniejszy magnes dla studentów z zagranicy niż roczny lub semestralny pobyt w słabo rozpoznawalnych międzynarodowo polskich uczelniach.
Nauczanie myślenia krytycznego i twórczego na lekcjach przedmiotów ścisłych jest znacznie utrudnione przez pokusy szybkiego dostępu do niezweryfikowanych informacji [1]. Współczesna dydaktyka fizyki staje przed wyzwaniem utrzymania uwagi uczniów w warunkach rosnącej dekoncentracji spowodowanej m.in. nadmiarem bodźców cyfrowych [2].
Fizyka jako nauka z definicji kognitywna nie może zatem polegać wyłącznie na formach podawczych i weryfikujących. Celem wystąpienia jest przedstawienie rozwiązań metodycznych, które z jednej strony wspierają używanie urządzeń mobilnych, a z drugiej angażują uczestniczącą młodzież.
Przedstawione zostaną przykłady prostych projektów do przeprowadzenia w domu lub klasie (por. Rys. 1), których realizacja kształtuje podstawowe kompetencje inżynierskie, uczy opracowania danych pomiarowych i stanowi urozmaicenie zajęć. Zastosowany tutoring sprzyja ponadto wzmacnianiu koncentracji, formowaniu postawy badawczej i przygotowuje uczniów do udziału w zajęciach akademickich na pracowni fizycznej Wydziału Fizyki i Informatyki Stosowanej AGH.
References
[1] K. Radosz et al. “Aż 42,7% dzieci w wieku od 4 do 9 lat korzysta ze smartfona”. W: gov.pl – Krajowa Rada Radiofonii i Telewizji (2023), URL: https://www.gov.pl/web/krrit/az-427-dzieci-w-wieku-od-4-do-9-lat-korzysta-ze-smartfona.
[2] Instytut Pokolenia. “Smartfon – problemy i wyzwania. Raport 2025”. In: Instytut Pokolenia (Mar. 2025), URL: https://www.instytutpokolenia.org/wp-content/uploads/2025/03/RAPORT-Smartfon.pdf.
Planowane zmniejszenie liczby godzin dydaktycznych fizyki w szkole jest jednym z efektów małego poparcia społecznego dla tej dziedziny nauki. Pomysł nie spotkał się z istotną reakcją potencjalnych wyborów. Jakość edukacji nie jest była tematem ostatnich wyborów prezydenckich. Inżynieria i nauki ścisłe choć strategiczne nie są dostatecznie istotne dla społeczeństwa.
Wystąpienie będzie obejmowało analizę społecznego postrzegania fizyki oraz obecności osób posiadających wykształcenie ścisłe i techniczne w przestrzeni publicznej. Sformułowane zostaną proponowane rozwiązania, które pozwolą na większą obecność fizyki w przestrzeni publicznej.
Współczesne dzieci i młodzież dorastają w świecie zdominowanym przez szybkie, wizualne i interaktywne treści – od bajkowych historii po krótkie filmy na platformach takich jak TikTok czy YouTube. Tradycyjne formy nauczania i popularyzacji fizyki często nie odpowiadają na potrzeby pokolenia Z i Alfa, które oczekują treści atrakcyjnych, angażujących i dostosowanych do ich stylu uczenia się. W odpowiedzi na te wyzwania powstały dwie innowacyjne formy upowszechniania nauki: teatralne pokazy fizyki dla najmłodszych oraz projekt „TIKTOK-owa fizyka” skierowany do uczniów starszych klas szkół podstawowych i średnich.
Teatralna popularyzacja fizyki – poprzez przedstawienia inspirowane bajkami, takie jak „Jesienne czary mary”, „Fizyczna opowieść o Mikołaju i Rudolfie” czy „Wiosenne doświadczenia z jajem” – ukazuje zjawiska fizyczne w formie zabawy, angażując dzieci poprzez interaktywność, znane postacie i efektowną scenografię. Przedstawienia te nie tylko rozwijają kreatywność i ciekawość świata, ale również przystępnie tłumaczą zjawiska takie jak grawitacja, dyfuzja, tarcie czy działanie sił.
Z kolei projekt „TIKTOK-owa fizyka” odpowiada na potrzeby młodzieży preferującej krótkie, dynamiczne formy przekazu. Poprzez wykorzystanie popularnych mediów społecznościowych prezentowane są doświadczenia fizyczne – zarówno te wymagające specjalistycznego sprzętu, jak i możliwe do wykonania w domu. Dzięki tej formie fizyka przestaje być postrzegana jako trudna i niedostępna, stając się dziedziną bliską codziennemu życiu uczniów.
W warunkach dynamicznych przeobrażeń technologicznych i rosnącej konieczności rozwijania kompetencji praktycznych, implementacja metody Problem-Based Learning (PBL) stanowi istotny element modernizacji procesu kształcenia akademickiego. Przedmiot „Lasery w medycynie”, realizowany na kierunku fizyka medyczna, został przekształcony z tradycyjnego kursu wykładowo‑ćwiczeniowego w przestrzeń aktywnego uczenia się, osadzoną w paradygmacie konstruktywistycznym i nastawioną na rozwój autonomii uczących się.
Cele dydaktyczne zostały sformułowane nie tylko w kategoriach opanowania wiedzy teoretycznej dotyczącej zastosowań laserów w medycynie, lecz przede wszystkim w odniesieniu do kształtowania umiejętności analizy problemów, współpracy zespołowej oraz myślenia projektowego. Kluczowym zadaniem powierzonym studentom było opracowanie koncepcji firmy wykorzystującej technologię laserową w praktyce medycznej – od identyfikacji potrzeby rynkowej, poprzez dobór odpowiedniego typu lasera i oceny jego zastosowania w wybranych działach medycyny. Konstrukcja problemu dydaktycznego sprzyjała rozwijaniu kreatywności, zdolności do integracji wiedzy z różnych obszarów i pogłębionemu rozumieniu zagadnień fizycznych i ich praktycznego zastosowania.
Na plakacie przedstawiono strukturę kursu, projekt studencki oraz wnioski z ewaluacji dydaktycznej. Wyniki wskazują, że metoda PBL wspiera rozwój kompetencji kluczowych przyszłych specjalistów fizyki medycznej, łącząc transfer wiedzy akademickiej z wymaganiami rynku pracy oraz kształcąc postawy przedsiębiorcze i innowacyjne.
Odbiór społeczny fizyki to zagadnienie różnorodne zależące od wielu czynników, takich jak wiedza i zainteresowania osób, ich grupa wiekowa i edukacja, a także kontekst społeczny. W ogólnym aspekcie, fizyka jest postrzegana jako trudna, abstrakcyjna, ale również fascynująca i ważna dziedzina wiedzy.
Główne aspekty odbioru społecznego fizyki polegają na:
• postrzeganiu fizyki jako trudnej dziedziny nauki:
Wiele osób uważa fizykę za trudną do zrozumienia, co związane jest z jej abstrakcyjnymi pojęciami i matematycznym językiem.
• fascynacji i zainteresowaniu:
Mimo trudności, fizyka przyciąga uwagę wielu osób ze względu na jej zdolność do wyjaśniania świata i zjawisk w nim zachodzących.
• ważności dla postępu technicznego:
Fizyka jest uważana za fundamentalną naukę, która ma duży wpływ na rozwój technologii i innowacji.
• inspiracji dla przyszłych pokoleń:
Fizyka może być inspiracją dla młodych ludzi, którzy chcieliby wybrać karierę naukową lub techniczną.
• rozwoju wiedzy i świadomości:
Fizyka przyczynia się do rozwoju wiedzy i świadomości społeczeństwa na temat świata, w którym żyjemy.
• roli mediów:
Fizyka często pojawia się w mediach, co wpływa na sposób, w jaki społeczeństwo postrzega tę dziedzinę nauki. Reforma systemu edukacji sukcesywne wdrażana od 2000 roku w przypadku nauczania fizyki postulowała uzupełnienie edukacji szkolnej edukacją pozaszkolną polegająca na korzystaniu z muzeów nauki, festiwalów nauki i pikników naukowych oraz przez umożliwienie wspomagania nauki szklonej przez różne inicjatywy edukacyjne i popularyzatorskie organizowane przez instytucje naukowe, wydziały fizyki na uczelniach wyższych, instytuty naukowe czy wyspecjalizowane organizacje pozarządowe. Twórcy reformy systemu edukacji uważali, że edukacja człowieka nie może zakończyć się tylko na nauczaniu szkolnym, gdyż wobec szybkiego rozwoju wiedzy naukowej, dorośli powinni dalej poszerzać swoją wiedzę samodzielnie. Edukacji dorosłych miały służyć, tak jak młodzieży szkolnej, muzea nauki, festiwale nauki i pikniki naukowe, ale także media. Twórcy reformy edukacji określili rolę mediów w dokształcaniu uczniów i dorosłych jako edukacyjną i popularyzatorską.
Czy jednak media spełniają rolę założoną przez twórców reformy edukacji?
Media obecnie są inne niż wtedy, gdy władze edukacyjne opracowywały założenia reformy. Oprócz tradycyjnych mediów działają także media wykorzystujące nowe technologie informatyczne. Jakkolwiek nowe technologie umożliwiają szybki przekaz wiedzy użytkownikom w formiY blogów, podcastów, kanałów tematycznych na platformie filmowej youtube, to jednak większość społeczeństwa nadal korzysta z tradycyjnych form przekazu medialnego poprzez telewizję, radio i prasę, a te środki przekazu obecnie nie działają tak samo jak kiedyś. Media tradycyjne niestety poddały się komercjalizacji i dlatego informacje naukowe są przez nie podawane tak jak sensacje, newsy, a naukowcy są traktowani jak celebryci. Co więcej, oprócz rzetelnej wiedzy, media lansują pseudonaukę korzystając z braku kontroli ze strony środowiska naukowego, a także braku środków na zatrudnianie konsultantów naukowych. Szkodliwym społecznie zjawiskiem jest usilne upowszechnianie teorii naukowych oraz nowych odkryć naukowych i technicznych w codziennym życiu w wypaczonej interpretacji, co prowadzi do kompletnego chaosu pojęciowego. Ciągle pokutuje wypaczona przez media interpretacja fizyki kwantowej, spowodowana niedawnymi osiągnięciami w tej dziedzinie w zakresie budowy komputerów kwantowych i kryptologii, a już doszła nowa dziedzina wiedzy do interpretacji medialnej, tzn. sztuczna inteligencja.
Przedstawione powyżej aspekty zagadnienia odbioru społecznego fizyki zostaną rozwinięte i uzupełnione o ciekawe dla nauczycieli i dydaktyków fizyki przykłady w opracowywanym plakacie.
Celem wystąpienia jest przedstawienie sposobów popularyzacji fizyki wśród młodzieży szkół średnich oraz pokazanie, jak nowoczesna dydaktyka może łączyć atrakcyjne treści z wymaganiami podstawy programowej.
The aim of the presentation is to show how to popularize physics among high school students and how modern teaching methods can combine engaging content with curriculum requirements.
Przedstawienie nowoczesnych strategii popularyzowania fizyki w ramach formalnej edukacji pokazuje, że atrakcyjność przekazu można skutecznie łączyć z rzetelnością naukową. Prezentacja skupia się na metodach dydaktycznych, które pomagają uczniom zrozumieć i zainteresować się fizyką jako nauką praktyczną i interdyscyplinarną.
W dobie cyfrowej nadprodukcji informacji fizyka często przegrywa z mitami i uproszczeniami, tymczasem można ją skutecznie promować, sięgając po narzędzia kultury popularnej, aktualne wydarzenia naukowe i projekty edukacyjne.
Jako przykłady, podaję sprawdzone działania:
Analiza filmu Marsjanin jako wprowadzenie do tematów produkcji wody, fotosyntezy, ciśnienia atmosferycznego; Dyskusja o filmie „Grawitacja”, tematy: „Czy postać Clooney’a musiała się odłączyć? Zasada zachowania pędu; Brak sił zewnętrznych w przestrzeni”;
Wykonanie ćwiczeń: Fizyka czy fikcja? Oglądanie scen, Czy dana sytuacja jest możliwa fizycznie? Argumentacja z wykorzystaniem praw fizyki.
Wykonanie projektu: Poradnik dla astronauty: Jak pić wodę w kosmosie? Toaleta i higiena bez grawitacji; Znaczenie ćwiczeń na ISS.
Wykorzystanie wydarzeń popularnonaukowych (np. wizyta Kipa Thorne’a na Uniwersytecie Lwowskim) jako punktów wyjścia do debat;
Realizacja kart pracy, plansz dyskusyjnych, quizów i projektów zgodnych z podejściem STEAM.
Celem tych i innych działań jest podkreślenie, że skuteczne nauczanie fizyki wymaga zaangażowania, kreatywności oraz tworzenia powiązań między nauką a codziennym życiem ucznia.
Popkultura to skuteczne narzędzie w nauczaniu fizyki, a filmy i życie astronautów wspierają zrozumienie teorii. Korzyści z wykorzystania popkultury to:
Większe zaangażowanie uczniów, zrozumienie przez przykład, rozwijanie krytycznego myślenia.
Od ponad 20 lat na Politechnice Śląskiej są prowadzone zajęcia „laboratorium komputerowe z fizyki”. Są to ćwiczenia rachunkowe z fizyki „wspomagane” programem MATHEMATICA.
Program ma bardzo rozbudowaną pomoc zawierającą opis wszystkich komend z przykładami, co ułatwia studentom opanowanie składni i zrozumienie jego struktury logicznej. Wykorzystanie obliczeniowych technik komputerowych do rozwiązywania zadań i problemów z fizyki pozwala na głębszą analizę fizyczną omawianych zjawisk. Prowadzący zajęcia ma do dyspozycji zaoszczędzony czas potrzebny studentom
na zajęciach „klasycznych” (bez wykorzystaniu programu) do wykonywania obliczeń matematycznych. Dodatkowym atutem jest możliwość rozwiązywania danego zadania (pisania
algorytmu w programie MATHEMATICA) przez wszystkich studentów jednocześnie, a nie tylko przez jedną osobę na tablicy. Stopień trudności rozwiązania zadań jest bardzo szeroki. Najprostsze wymagają tylko wstawienia wartości do
wzorów bez konieczności rozwiązywania równań, w przypadku najtrudniejszych należy rozwiązać numerycznie równania różniczkowe cząstkowe.
W Instytucie Fizki - Centrum Naukowo-Dydaktycznym Politechniki Śląskiej z powodzeniem wdrażana jest metodyka Project-Based Learning (PBL), oparta na uczeniu się poprzez realizację projektów. Model ten pozwala studentom na bezpośrednie zastosowanie wiedzy teoretycznej w praktyce oraz rozwija kluczowe kompetencje przyszłych inżynierów i naukowców, takie jak kreatywność, umiejętność rozwiązywania problemów, współpraca zespołowa czy krytyczne myślenie.
Realizowane w ramach PBL projekty często mają charakter interdyscyplinarny, co znacznie poszerza posiadaną przez studentów wiedzę. Studenci nie tylko pogłębiają zrozumienie zjawisk fizycznych, ale również aktywnie włączają się w działalność naukową – uczestniczą w przygotowaniu wystąpień konferencyjnych, są współautorami artykułów naukowych, a także zgłoszeń patentowych. Taka forma kształcenia stanowi realne wprowadzenie studentów w świat badań naukowych już na etapie studiów.
W prezentacji omówione zostaną przykłady projektów, osiągnięte rezultaty dydaktyczne oraz konkretne efekty naukowe wynikające z zaangażowania studentów. Zebrane doświadczenia potwierdzają skuteczność podejścia PBL w kształtowaniu zarówno kompetencji technicznych, jak i naukowych, a także w budowaniu mostu między dydaktyką a działalnością badawczą.
W dobie zmian pokoleniowych oraz rosnących oczekiwań względem skuteczności i personalizacji edukacji, tradycyjne metody nauczania fizyki okazują się niewystarczające. Współczesne pokolenie studentów potrzebuje angażujących, praktycznych i problematyzujących form nauki, które lepiej odzwierciedlają realne wyzwania zawodowe. W prezentacji przedstawiona zastanie metoda Problem-Based Learning (PBL) w dydaktyce fizyki medycznej, ze szczególnym uwzględnieniem kontekstu klinicznego związanego z diagnostyką obrazową i dawkami promieniowania jonizującego. Studenci, pracując w grupach, mieli za zadanie zaplanowanie procesu diagnostyczno-terapeutycznego dla pacjenta z wieloma jednostkami chorobowymi, uwzględniając limity dawek rocznych, różnice norm w zależności od regionu świata, a także koszty leczenia i profilaktyki. Zadanie obejmowało również wykorzystanie elementów symulacji medycznej, takich jak patologiczny chód czy wady wzroku, pozwalających lepiej zrozumieć sytuację pacjenta. Zostaną omówione korzyści płynące z zastosowania metody PBL w kształceniu przyszłych fizyków medycznych oraz jej wpływ na rozwój kompetencji praktycznych, analitycznych i empatycznych, niezbędnych w pracy zawodowej w systemie ochrony zdrowia ukierunkowanym na jakość, bezpieczeństwo i optymalizację kosztów. Dodatkowo przedstawione zostaną konkretne przykłady zastosowania PBL w nauczaniu fizyki, podkreślając ich skuteczność w budowaniu głębokiego zrozumienia zagadnień fizycznych poprzez realne konteksty i interdyscyplinarne podejście. Poruszona zostanie także kwestia odbioru przez studentów, zajęć prowadzonych z wykorzystaniem metody PBL.
Wirtualna Akademia Astronomii to Instytucja działająca na Uniwersytecie Opolskim, we współpracy z Opolskim Towarzystwem Przyjaciół Nauk, wspierająca popularyzację astronomii
i fizyki wśród szkół i młodzieży. Nauczyciele chętni do współpracy z WAA tworzą kółka astronomiczno-fizyczne, mogą też zaprosić naukowca z Uniwersytetu Opolskiego do wygłoszenia prelekcji lub przeprowadzenia obserwacji. WAA zaprasza również grupy młodzieży
na Uniwersytet Opolski, na spotkania publiczne lub specjalnie przygotowane dla grupy.
WAA organizuje trzy konkursy „Odkrywca światów” w każdym roku akademickim: plastyczny, literacki i fotograficzny. W ramach Wirtualnej Akademii Astronomii organizowane są również Seminaria Astronomiczne i wyjazdy naukowe w formie warsztatów czy obozów.
Plakat przedstawia 11 lat działalności Wirtualnej Akademii Astronomii, możliwości współpracy i rozwoju.
Studenci różnych kierunków medycznych, zarówno na uniwersytetach jak i w uczelniach zawodowych, jakimi w Polsce są akademie nauk stosowanych, w trakcie edukacji obowiązkowo realizują przedmioty związane z szeroko pojętą fizyką. Znajomość fundamentalnych praw przyrody i właściwości materii jest bowiem niezbędna do ilościowego wyjaśnienia zasad funkcjonowania ludzkiego organizmu oraz zrozumienia zasad działania nowoczesnego sprzętu, stanowiącego podstawę współczesnej diagnostyki i terapii.
Edukacja w tym zakresie powinna zaczynać się już w szkole średniej. Niestety, uczniowie klas biologiczno-chemicznych często nie dostrzegają potrzeby zgłębiania tajników fizyki. Zwraca uwagę brak interdyscyplinarności nauczania oraz ciągłe powielanie w podręcznikach typowych przykładów wykorzystania fizyki w życiu codziennym bez powiązań z medycyną i naukami o życiu. Nie bez znaczenia pozostaje też niewystarczająca wiedza niektórych nauczycieli w zakresie zastosowania metod fizycznych w medycynie. W odpowiedzi na ten problem autor przygotował dotychczas cykl 35 artykułów popularyzatorsko-dydaktycznych, które ukazują się od 2014 na łamach czasopisma dla nauczycieli „Fizyka w Szkole z Astronomią”. Podejmowane w nich, zazwyczaj niestandardowe tematy, takie jak: fizyka u pulmonologa [1], kardiologa [2], okulisty i optometrysty [3], internisty [4] czy fizjoterapeuty [5] mają za zadanie pokazać rolę fizyki w pracy różnych specjalistów z branży medycznej.
Kształcenie samych studentów, głównie w ramach zajęć z biofizyki i przedmiotów związanych z fizyką medyczną, powinno czerpać inspirację z najnowszych trendów obowiązujących chociażby w uczelniach przygotowujących do zawodu pielęgniarki. Mowa tu oczywiście o kształceniu symulacyjnym. Pozwala ono znakomicie pogłębiać wiedzę, a przede wszystkim rozwijać samodzielność myślenia, umiejętności praktyczne oraz kompetencje społeczne. Interaktywne zajęcia, przeprowadzane w małych grupach w kontrolowanym środowisku, muszą oczywiście mieć charakter eksperymentalny oraz być realizowane według opracowanego przez prowadzącego scenariusza. Standardowo ćwiczenia składają się z trzech części. Pierwsza z nich ma charakter wprowadzenia, w ramach którego uczestnicy otrzymują instrukcje oraz niezbędne informacje. Drugim etapem jest właściwa sesja symulacyjna. Jako przykład można przedstawić zadanie polegające na rejestracji elektrycznej aktywności serca i interpretacji otrzymanych wyników. W przypadku tzw. symulacji wysokiej wierności oprócz rejestratora sygnałów elektrokardiograficznych stosuje się specjalistyczne fantomy, doskonale naśladujące wygląd człowieka oraz jego reakcje. Taki zaawansowany zestaw doświadczalny umożliwia prowadzącemu zaprogramowanie i wygenerowanie rytmów, jakie towarzyszą najrozmaitszym patologiom, związanym np. z zaburzeniem przewodzenia elektrycznego w obrębie mięśnia sercowego. Ważne, że symulować można nie tylko różne stany fizjologiczne, ale również zdarzenia nietypowe, takie jak niespodziewana awaria sprzętu. Na tym etapie studenci muszą wykazać się zatem otwartym umysłem, refleksem, kreatywnością, samodzielnością, umiejętnością pracy w zespole a przede wszystkim przekładaniem wiedzy teoretycznej na działanie praktyczne. Co najważniejsze, symulacje zapewniają powtarzalność i sprawiają, że można bezpiecznie prowadzić ćwiczenia bez konieczności zaangażowania żywych osób w charakterze pacjentów. Trzecia część zajęć stanowi natomiast podsumowanie prawidłowości realizacji scenariusza przez studentów. Towarzyszy temu nieodłączna dyskusja, a dogłębna analiza popełnionych błędów sprawia, że studenci mogą wyciągnąć konstruktywne wnioski na przyszłość.
Praktyczne kształcenie symulacyjne niewątpliwie ma szansę zrewolucjonizować nauczanie biofizyki, jedyną jego wadą jest wysoka cena zaawansowanych technicznie symulatorów.
Literatura:
[1] T. Kubiak, Fizyka u pulmonologa, Fizyka w Szkole z Astronomią, nr 3 (2024), s. 4-13.
[2] T. Kubiak, Fizyka u kardiologa, Fizyka w Szkole z Astronomią, nr 3 (2023), s. 4-11.
[3] T. Kubiak, Fizyka u okulisty i optometrysty, Fizyka w Szkole z Astronomią, nr 5 (2023), s. 4-13.
[4] T. Kubiak, Fizyka u internisty, Fizyka w Szkole z Astronomią, nr 2 (2018), s. 4-7.
[5] T. Kubiak, Od światłolecznictwa do elektroterapii, czyli podstawy wybranych metod fizykoterapii, Fizyka w Szkole z Astronomią, nr 1 (2022), s. 4-11.
The nature of dark matter remains unknown, and its origin is currently one of the most important questions in physics. One of the most promising technologies to directly observe interactions of Weakly Interactive Massive Particles (WIMPs), a dark matter candidate, with ordinary matter is based on the use of a large mass of liquid argon as a target.
A general overview and status of the DarkSide-20k detector, now under construction in the Gran Sasso National Laboratory (LNGS) in Italy, will be presented in a broader context of the Global Argon Dark Matter Collaboration physics programme. DarkSide-20k aims to directly detect dark matter by observing weakly interacting massive particles (WIMPs) scattering off the nuclei in 20 tonnes of low radioactivity liquid argon in the dual-phase time projection chamber (TPC).
Special emphasis will be given to the Polish contributions to the project:
Cryogenic testing of the veto silicon photomultiplier modules
The light collection scheme for the veto detector, consisting of approx. 200 square meters of a novel polymeric wavelength shifting reflector film, based on polyethylene naphthalate
Precise screening for traces of natural radioactivity in construction materials as a method to minimize the DarkSide-20k detector background.
The LEGEND experiment has been designed to search for neutrinoless double-beta decay (0vbb) in Ge-76. Its discovery would have profound implications for neutrino physics and cosmology providing unambiguous evidence for the Majorana nature of neutrinos, lepton number non-conservation and the absolute neutrino mass scale. The LEGEND-1000 detector represents the ton-scale phase of the LEGEND program, following the current intermediate stage called LEGEND-200 and currently carried out at LNGS in Italy. The LEGEND-200 (L-200) first results are based on 61 kgxyr of exposure. Data from GERDA and the Majorana Demonstrator were combined with L-200 for a joint analysis, yielding a 90% CL sensitivity of 2.8x10^26 yr and setting a new lower limit of >1.9x10^26 yr, for the half-life of 0vbb. Assuming the decay mechanism is mediated by the exchange of a light Majorana neutrino, this half-life limit corresponds to an upper limit on the effective Majorana mass of mbb <75-200 meV.
The LEGEND-1000 will be based on p-type, inverted-coaxial, point-contact germanium detectors enriched in Ge-76 up to about 90 %. The detectors will be operated in an active shield based on underground argon (argon extracted from an underground source, depleted in Ar-39 and Ar-42). This approach proved to guarantee the lowest background levels and the best energy resolution at the decay Q value. The anticipated quasi background-free operation will allow for 0vbb decay in Ge-76 at a half-life beyond 10^28 yr and a discovery sensitivity spanning the inverted-ordering neutrino mass scale.
The LEGEND-1000 Collaboration is successfully seeking funding from US and European agencies. The construction of the detector in Hall C of the underground laboratory of LNGS in Italy should start in 2026 and will take about 8 years. Start of data taking is foreseen for 2029.
The Top-Down reconstruction chain is a Monte Carlo simulation framework designed to reconstruct extensive air showers while addressing the observed muon discrepancy—the excess of muons in data compared to simulations. We apply this method to a rare event detected by the Pierre Auger Observatory, notable for its exceptionally large depth of shower maximum. This rare event may even suggest exotic physics. To analyze its probability of being a hadron or photon, we try to reconstruct it using the Top-Down chain. The analysis has shown the need for modifications of the procedure: increasing the number of simulations, introducing additional quality cuts, and others. We present the reconstructed event that best matches the observations and analyze the top matches to quantify the muon discrepancy. Finally, we assess the likelihood of the primary particle being a hadron or photon.
The true nature of dark matter remains a mystery, and uncovering its origin in the Universe is one of the foremost challenges in physics. Direct detection efforts focus on searching for interactions between weakly interacting massive particles (WIMP), one of favored dark matter candidates, and ordinary matter. Experiments are located in deep underground laboratories, where cosmic ray backgrounds are minimized. Among the most promising detection methods is the use of a substantial volume of liquid argon as a target material.
In this talk, I will present the design and operational status of the liquid argon single-phase DEAP-3600 Experiment, which has been taking data 2 km underground at SNOLAB, (Sudbury, Canada) since 2016. Further on, I will talk about recent results, including an overview of the WIMP search, the direct measurement of the Ar-39 half-life and the first observation of neutrino absorption on argon.
Europejska infrastruktura badawcza Extreme Light Infrastructure – ELI ERIC składa się z trzech ośrodków badawczych: ELI ALPS (Attosecond Light Pulse Source), zlokalizowanego w Szeged na Węgrzech, ELI Beamlines, znajdującego się w miejscowości Dolni Brezany w Czechach oraz ELI NP (Nuclear Physics), zbudowanego w miejscowości Magurele w Rumunii. W ośrodkach tych znajdują się unikalne na świecie systemy impulsowych laserów wielkiej mocy, przeznaczone do prowadzenia badań naukowych w różnych dziedzinach nauki i techniki. Badania te dotyczą oddziaływania z materią impulsów laserowych o ekstremalnych parametrach, czasie trwania oraz intensywności impulsów promieniowania, jak również zastosowania wtórnego promieniowania elektromagnetycznego i cząstek naładowanych o wysokiej energii, wytwarzanych tymi impulsami.
Programy badawcze poszczególnych ośrodków ELI obejmują bardzo szeroki zakres dziedzin i dyscyplin naukowych. W ośrodku ELI-ALPS prowadzone są prace dotyczące wytwarzania laserami ultrakrótkich impulsów promieniowania o czasie trwania w zakresie attosekundowym i ich zastosowania w badaniach dynamiki ultraszybkich procesów zachodzących w atomach, molekułach, plazmie i ciałach stałych. Planowane są w nim także badania w zakresie biologii i medycyny z zastosowaniem wiązek wysokoenergetycznych protonów przyspieszanych laserami. Program badawczy ośrodka ELI-Beamlines dotyczy wytwarzania laserem impulsów promieniowania elektromagnetycznego w szerokim zakresie widmowym, od nadfioletu próżniowego do twardego promieniowania rentgenowskiego oraz strumieni wysokoenergetycznych cząstek naładowanych i ich zastosowania w badaniach w obszarze fizyki ciała stałego, optyki atomowej i molekularnej, chemii, biologii i inżynierii biomedycznej i medycyny. Ponadto planowane są badania oddziaływania impulsów laserowych z materią przy ultra wysokich intensywnościach promieniowania powyżej 1023 Wcm-2, umożliwiające prowadzenie eksperymentów w obszarze elektrodynamiki kwantowej. Badania prowadzone w ośrodku ELI-NP dotyczą głównie zastosowania impulsowych laserów wielkiej mocy w fizyce jądrowej. Obecnie w tym ośrodku znajduje się system laserowy wytwarzający impulsy promieniowania o największej na świecie intensywności, a w przyszłości najważniejszym urządzeniem badawczym będzie unikalne źródło impulsów promieniowania γ oparte na rozpraszaniu Comptona wiązki laserowej na wysokoenergetycznych elektronach.
W referacie zaprezentowana będzie organizacja infrastruktury ELI ERIC oraz warunki z jej korzystania przez użytkowników zewnętrznych. Następnie, podana zostanie krótka charakterystyka systemów laserowych oraz aparatury badawczej dostępnej w ośrodkach ELI. Przedstawiona będzie także działalność krajowego konsorcjum ELI – Polska, skupiającego uczelnie i instytuty naukowe zainteresowane infrastrukturą ELI ERIC, mająca na celu jej popularyzację w środowisku naukowym w Polsce oraz zwiększenie udziału polskich naukowców wśród użytkowników tej unikalnej na świecie infrastruktury badawczej.
Facility for Antiproton and Ion Research (FAIR) w Darmstadt w Niemczech oraz Système de Production d’Ions Radioactifs en Ligne de 2e Génération (SPIRAL2) w GANIL w Caen we Francji należą do europejskich strategicznych infrastruktur badawczych i są największymi ośrodkami akceleratorowymi budowanymi obecnie na naszym kontynencie z udziałem polskich naukowców i inżynierów. Obydwie instalacje będą dysponować niespotykanymi nigdzie indziej wiązkami ciężkich jonów, które umożliwią interdyscyplinarne, innowacyjne badania: od struktury egzotycznych jąder atomowych, astrofizyki jądrowej i własności ekstremalnych stanów materii jądrowej po fizykę atomową, naświetlanie materiałów i zastosowania w radiobiologii i medycynie.
Motywem przewodnim wykładu będzie przedstawienie zaangażowania polskich fizyków jądrowych w wyposażenie stanowisk eksperymentalnych FAIR i SPIRAL2 jak i w planowane z ich użyciem programy badawcze. W szczególności, omówione zostaną możliwości wykorzystania wtórnych wiązek radioaktywnych jonów do wytwarzania krótkożyciowych nuklidów, oddalonych od ścieżki stabilności beta i badania nietypowych własności tych egzotycznych jąder.
CERN, czyli Europejska Organizacja Badań Jądrowych (z fr. Conseil Européen pour la Recherche Nucléaire), to największe na świecie laboratorium fizyki cząstek, położone na pograniczu Szwajcarii i Francji. Polska, będąca członkiem CERN od 1991 roku, aktywnie uczestniczy w badaniach prowadzonych w tym unikalnym ośrodku. Obecnie CERN kojarzony jest przede wszystkim z budową i działaniem Wielkiego Zderzacza Hadronów (LHC – Large Hadron Collider) – największego i najpotężniejszego akceleratora cząstek na świecie. Wokół LHC powstały cztery główne eksperymenty, w których uczestniczą tysiące naukowców z całego globu, w tym liczne zespoły badawcze z Polski.
Podczas wystąpienia zostaną przedstawione przykłady najważniejszych eksperymentów prowadzonych w CERN, takie jak ATLAS, CMS, ALICE czy LHCb, oraz wkład polskich grup badawczych w ich rozwój i funkcjonowanie. Omówione zostaną zarówno aspekty teoretyczne, jak i technologiczne polskich prac – od udziału w budowie detektorów, przez analizy danych, aż po rozwój infrastruktury informatycznej. Wystąpienie pokaże, jak polscy naukowcy współtworzą światową naukę, a także jak ich praca przyczynia się do poszerzania naszej wiedzy o fundamentalnej strukturze materii i Wszechświata.
Rozwój fizyki jądrowej w Polsce opiera się na komplementarnych ośrodkach badawczych, umożliwiających prowadzenie badań eksperymentalnych i teoretycznych na światowym poziomie. W wystąpieniu przedstawione zostaną trzy kluczowe ośrodki i inicjatywy: Środowiskowe Laboratorium Ciężkich Jonów (SLCJ) w Warszawie, Centrum Cyklotronowe Bronowice (CCB przy IFJ PAN) w Krakowie oraz Wirtualna Platforma obliczeniowa Theo4Exp – mająca na celu udostępnianie wyników narzędzi i obliczeń teoretycznych dla eksperymentalnej fizyki jądrowej.
Omówione zostaną możliwości badawcze akceleratorów i detektorów dostępnych w SLCJ i CCB, aktualne programy badawcze, a także perspektywy ich rozwoju w kontekście współpracy krajowej i międzynarodowej. Szczególna uwaga poświęcona zostanie roli VA Theo4Exp jako forum wspierającego integrację wiedzy, edukację młodych naukowców oraz jako narzędzie wspierające planowanie projektów badawczych. Prezentacja będzie również okazją do dyskusji nad przyszłością polskich infrastruktur jądrowych w świetle europejskich inicjatyw i map drogowych.
10 lat temu, 14 września 2015 po raz pierwszy w historii nauki zarejestrowano fale grawitacyjne (zaburzenia czasoprzestrzeni) wytworzone podczas połączenia się dwóch gwiazdowych czarnych dziur w jedną, rotującą czarną dziurę. Praca miedzynarodowego zespołu detektorów LIGO (USA) i Virgo (Włochy) została w 2017 roku uhonorowana nagrodą Nobla z fizyki. Detekcji, sygnału GW150914 dokonały dwa detektory interferometryczne LIGO w USA. Przełomowa detekcja była potwierdzeniem przewidywań ogólnej teorii względności Alberta Einsteina (1915), bezpośrednią obserwację czarnych dziur i otworzyła zupełnie nowe okno obserwacyjne na Wszechświat. Od tamtej pory zaobserwowaliśmy ponad 300 źródeł fal grawitacyjnych, głównie układów podwójnych czarnych dziur. Obserwacje fal grawitacyjnych pozwoliły nam dokonać wielu przełomowych odkryć. Ogólna teoria względności została potwierdzona w reżimie silnego pola, co jeszcze niedawno było nieosiągalne. Wykrycie połączenia się dwóch gwiazd neutronowych GW170817, któremu towarzyszył rozbłysk gamma, otworzyło nową dziedzinę astronomii wieloaspektowej i pozwoliło rozwiązać m. in. problem pochodzenia rozbłysków gamma.
W odkryciach mają istotny wkład uczeni z polskiego zespołu Polgraw wchodzącego w skład międzynarodowej współpracy Ligo-Virgo-Kagra.
W ramach wykładu opowiem o przełomowych odkryciach astrofizyki fal grawitacyjnych, o źródłach fal grawitacyjnych, wyjaśnię jak fale grawitacyjne oddziałują z materią, jakiego typu informacje możemy uzyskać obserwując Wszechświat w falach grawitacyjnych oraz o przyszłych eksperymentach.
Czy wszechświat wypełniony miliardami gorących gwiazd może być naprawdę chłodny. Czy w tak zimną przestrzeń trzeba wysyłać lodówki? Czy astronautom zmarzną palce gdy zdejmą rękawiczki w kosmosie? Na chłodno ale z emocjami rozważymy te i kilka dodatkowych pytań.
W dobie rosnącego zainteresowania tematyką kosmiczną, edukacja kosmiczna staje się kluczowym elementem kształcenia młodego pokolenia. W wykładzie wezmą udział Ambasadorki Edukacji Kosmicznej ESERO Polska, które zaprezentują innowacyjne metody wprowadzenia tematyki kosmicznej do programu nauczania. Uczestnicy dowiedzą się, jak realizować edukację kosmiczną w praktyce, omówią wyzwania stojące przed Europejską Agencją Kosmiczną (ESA) oraz zaprezentują różnorodne scenariusze zajęć, które mogą wzbogacić lekcje. W drugiej części wykładu poruszymy temat astronautyki analogowej, przedstawiając, jak można stać się astronautką w symulowanych warunkach. Ten wykład ma na celu zainspirowanie nauczycieli i uczniów do odkrywania tajemnic kosmosu oraz zaangażowanie ich w fascynujący świat nauki i technologii.
W wystąpieniu omówiona zostanie koncepcja równowag Nasha w strategiach czystych kwantowych rozszerzeń klasycznej gry Dylemat Więźnia. Proces kwantowania w schemacie EWL, który został zastosowany, polega na wprowadzeniu dwóch dodatkowych strategii unitarnych, które rozszerzają przestrzeń strategii klasycznej gry. W szczególności rozważone zostaną dopuszczalne klasy takich rozszerzeń, które pozostają niezmiennicze względem izomorficznych przekształceń gry klasycznej. Uzyskane równowagi Nasha wykazują lepszą zbieżność z rozwiązaniami Pareto-optymalnymi niż równowagi Nasha w klasycznym ujęciu gry. Wyniki te ukazują złożoność i różnorodność zachowań strategicznych w kontekście kwantowym, dostarczając nowych perspektyw w analizie klasycznych dylematów decyzyjnych. W ostatniej części wystąpienia omówione zostaną wybrane aplikacje w przemyśle.
Przychodzimy na świat z naturalną ciekawością i wewnętrzną motywacją [1-3], które napędzają nieustanną eksplorację świata we wczesnym dzieciństwie – radość z odkrywania i motywację do poszukiwania odpowiedzi na nieznane. W obecnych czasach, w sytuacji szybkich i gwałtownych zmian cywilizacyjnych, jak nigdy wcześniej, istnieje potrzeba utrzymania i rozwijania tej naturalnej dociekliwości uczennic i uczniów w całym toku ich edukacji, wobec konieczności przygotowania ich na życiowe i zawodowe wyzwania, które być może nawet nie zostały jeszcze zidentyfikowane.
Obecny format edukacji, z przeładowanymi programami nauczania i, wynikającym z nich, głównie podawczym przekazem informacji, nie jest w stanie sprostać wyzwaniom rozwijającego się świata, gdyż tłumi naturalną ciekawość uczennic i uczniów i nie rozwija w nich w wystarczającym stopniu krytycznego podejścia do życiowych doświadczeń oraz radzenia sobie w nieznanych sytuacjach. Pojawia się zatem paląca potrzeba zmiany wizji edukacji, w odpowiedzi na pytanie – jaki powinien być jej cel, gdzie chcemy dotrzeć?
Badania pokazują, że przyswajanie dużej ilości wiedzy w krótkim czasie wpływa negatywnie na jej retencję i motywację do nauki. Nie adresuje także rozwoju kompetencji uczennic i uczniów, rozumianych jako połączenie wiedzy, umiejętności i postaw. Naturalna dociekliwość uczennic i uczniów, aby się rozwijać, potrzebuje edukacji dociekającej, opartej na metodach aktywizujących różne obszary mózgu, w tym na współpracy w grupie. Jednak taka zmiana w podejściu do kształcenia, oprócz reform systemowych, wymaga wsparcia transformacji samych nauczycieli i nie jest możliwa bez rozwoju ich własnych kompetencji i umiejętności dociekania.
References
[1] M.P. Carlton and A.Winsler, “Fostering Intrinsic Motivation in Early Childhood Classrooms”. In: Early Childhood Education Journal 25 (1998), pp. 159–166. doi: 10.1023/A:1025601110383
[2] R. M. Ryan, and E. L. Deci, “Intrinsic and Extrinsic Motivations: Classic Definitions and
New Directions”. In: Contemporary Educational Psychology, 25 (2000), pp.54–67. doi:10.1006/ceps.1999.1020
[3] P.E. Shah, H.M. Weeks, B. Richards, N. Kaciroti. “Early childhood curiosity and kindergarten reading and math academic achievement”. In: Pediatric Research, 84 (2018), pp.380-386. doi.org/10.1038/s41390-018-0039-3
Wychodząc naprzeciw oczekiwaniom polskich dydaktyków fizyki od styczniu 2025 roku działa w ramach Polskiego Towarzystwa Fizycznego Sekcja Dydaktyki Fizyki licząca już prawie 100 członków reprezentujących wszystkie poziomy edukacyjne włączając w to również dydaktykę akademicką.
Zadaniem każdej sekcji jest realizowanie celów PTF w zakresie spraw objętych wspólnymi zainteresowaniami naukowymi lub wspólnym charakterem pracy zawodowej jej członków. W związku z powyższym Sekcja Dydaktyki Fizyki swoją aktywność wiąże z badaniami naukowymi w obrębie dydaktyki fizyki (w tym dydaktyki szczegółowej - metodyki nauczania fizyki), a także z popularyzacją fizyki.
Członkowie Sekcji podjęli w ostatnim półroczu szereg działań mających na celu szeroko pojęte wsparcie metodyczne. Utworzona została strona internetowa zawierająca bazę istotnych dla pracy dydaktycznej informacji. W założeniu baza ta będzie przy udziale członków Sekcji nadal sukcesywnie uzupełniana. Zarząd Sekcji przesyła jej Członkom cyklicznie informacje na temat związanych z dydaktyką fizyki ważnych wydarzeń. W ramach Sekcji powołany został też Rzecznik prasowy, którego zadaniem jest przygotowywanie miesięcznych raportów do newsletter-a PTF. Członkowie Sekcji tworzą już pierwsze zespoły robocze.
W roku szkolnym i akademickim 2025/2026 planowane są też webinaria i wykłady otwarte, zaś we wrześniu 2026 roku pod patronatem Sekcji Dydaktyki Fizyki odbędzie się w Warszawie 4 Kongres Nauczycieli Fizyki.
Badania w zakresie metodyki nauczania fizyki to sprawa niezwykle ważna dla współczesnego społeczeństwa. Rzeczywistość w jakiej żyją dziś młodzi ludzie jest inna niż ta, w której dorastali ich nauczyciele i wykładowcy. Dla nich dopływ nowych informacji nie kończy się po wyjściu ze szkoły, czy z uczelni. Zreformować należy więc nie tylko programy nauczania, ale całą metodologię nauczania fizyki. Oznacza to, że potrzeba nam pilnie nowych specjalistów – metodyków fizyki, którzy podjęliby się tego zadania, a przy okazji mogliby się rozwijać naukowo.
Zadanie to może być zrealizowane jednak tylko wtedy, gdy dydaktyka fizyki potraktowana zostanie jako dyscyplina naukowa, a ośrodki naukowe w Polsce umożliwią dydaktykom zdobywanie tytułów naukowych doktora oraz doktora habilitowanego. Problem braku możliwości rozwoju naukowego dydaktyków fizyki podejmowany był już wielokrotnie podczas kolejnych Zjazdów Fizyków Polskich – niestety bez pozytywnych skutków. Nie oznacza to jednak, że należy zrezygnować ze starań – trzeba je wręcz zintensyfikować.
Jednym z głównych zadań Sekcji Dydaktyki Fizyki jest reprezentowanie interesów polskich dydaktyków fizyki na wszystkich możliwych płaszczyznach, a sprawa rozwoju naukowego dydaktyków stanowi w tej kwestii priorytet. Wyrazić należy bowiem obawy, że jeśli problem nie zostanie na czas rozwiązany w niedalekiej przyszłości zabraknie metodyków, a co za tym idzie zabraknie dobrze metodycznie wykształconych nauczycieli fizyki. Następstwem będzie zamykanie w liceach oddziałów z rozszerzonym programem nauczania fizyki (co już niestety ma miejsce), drastyczny spadek abiturientów wybierających fizykę na egzaminie maturalnym (tylko w roku 2024 liczba osób wybierających fizykę na maturze spadła o prawie 3000!) i w konsekwencji spadek liczby kandydatów na studia techniczne i fizyczne oraz niski poziom tych, którzy te studia wybiorą. Najwyższa więc pora by zadbać o dobry fundament polskiej fizyki i włączyć rozwojowi naukowemu dydaktyków zielone światło.
Narodowe Centrum Badań Jądrowych w Świerku od lat kojarzone jest w Polsce przede wszystkim z reaktorem MARIA – jedynym tego typu obiektem w naszym kraju. To właśnie dzięki niemu NCBJ odgrywa kluczową rolę w produkcji izotopów dla medycyny, prowadzi zaawansowane badania materiałowe i jest obecne na naukowej mapie świata.
Dziś jednak w NCBJ powstaje nowe, równie unikatowe urządzenie – PolFEL, pierwszy w Polsce laser na swobodnych elektronach (Free Electron Laser, FEL). To nowoczesne źródło światła pozwoli generować intensywne i ultrakrótkie impulsy w niezwykle szerokim zakresie – od promieniowania terahercowego i podczerwieni, poprzez światło widzialne, aż po nadfiolet próżniowy (VUV). Dzięki temu możliwe będzie prowadzenie badań w nanoskali i ultrakrótkich czasach, otwierających drogę do przełomowych odkryć w biologii, chemii, fizyce materiałów i technologiach przyszłości.
PolFEL stanie się nowym symbolem potencjału NCBJ – podobnie jak reaktor MARIA – czyniąc ze Świerku ośrodek wyjątkowy w skali Europy, łączący tradycję badań jądrowych z najnowocześniejszymi technologiami laserowymi.
Neutron sources constitute a unique research tool, particularly valuable in studies of the structure and dynamics of condensed matter, as well as in chemistry, biology, materials science and life sciences. Currently, the two most important European centres of this kind are the Institut Laue–Langevin (ILL) in Grenoble and the emerging European Spallation Source (ESS) in Lund. For more than five decades, ILL has provided access to a high-flux research reactor, forming the basis for many breakthrough studies, including those on high-temperature superconductivity, novel magnetic phases, structural biology and natural sciences. ESS, as the world’s most advanced spallation source, will in the coming years offer new experimental opportunities – in neutron spectroscopy and diffraction, studies of functional materials, life sciences, as well as processes occurring on time scales from picoseconds to microseconds.
The Polish scientific community mainly uses the instruments available at ILL and is gradually preparing for future utilisation of the ESS infrastructure. A key challenge for the coming years is to strengthen the involvement of Polish research teams and to make more effective use of these instruments so that both facilities can better support research carried out in our country.
The SOLARIS synchrotron in Krakow is a third-generation light source operating at 1.5 GeV electron energy. The first synchrotron light from SOLARIS was observed in 2016, while the first user experiments were performed in 2018 using soft X-ray absorption spectroscopy and angle resolved photoelectron spectroscopy beamlines. Since, SOLARIS is expanding its activities, developing new end-stations and providing complementary infrastructure such as cryo-electron microscopes [1]. The experimental techniques offered by SOLARIS, the only synchrotron in Central-Eastern Europe, can well complement the outcomes of Mossbauer spectroscopy and hyperfine methods in basic and applied interdisciplinary research projects.
It should be emphasized that access to the research infrastructure at SOLARIS is free of charge and provided based on the assessment of the beamtime applications by the international review panel. Financial support to user visits is provided through EU projects NEPHEWS, ReMade@ARI, and RIANA as well as CERIC-ERIC consortium.
Acknowledgments
We acknowledge the entire team of SOLARIS Centre and the supporting research groups. SOLARIS operation is financed by Polish Ministry and Higher Education project: “Support for research and development with the use of research infrastructure of the National Synchrotron Radiation Centre SOLARIS” under contract nr 1/SOL/2021/2.
[1] J. Szlachetko, J. Szade M. Stankiewicz, et al., Eur. Phys. J. Plus 138 (2023) 10.
Europejskie Centrum Promieniowania Synchrotronowego (European Synchrotron Radiation Facility - ESRF) jest międzynarodową infrastrukturą badawczą zlokalizowaną w Grenoble we Francji, po raz pierwszy udostępnioną użytkownikom w 1994 roku. Laboratorium zostało wybudowane, jest utrzymywane oraz modernizowane dzięki współpracy krajów tworzących Konsorcjum ESRF. Obecnie w skład Konsorcjum wchodzi 19 krajów: Francja, Niemcy, Włochy, Wielka Brytania, Rosja, Hiszpania, Szwajcaria, Konsorcjum BENESYNC składające się z Belgii i Holandii, Konsorcjum NORDSYNC składające się z Danii, Finlandii, Norwegii i Szwecji oraz kraje stowarzyszone (wkład do budżetu poniżej 4%) czyli Austria, Izrael, Polska, Portugalia, Czechy oraz Republika Południowej Afryki.
ESRF oferuje użytkownikom czas pomiarowy na 46 liniach badawczych, które zostały podzielone na 6 grup tematycznych: „Structural biology”, „Structure of materials”, „Electronic structure, magnetism & dynamics”, „Matter at extremes”, „Complex systems & biomedical sciences” oraz “X-ray nanoprobe”. Oferowane techniki obejmują m.in.: dyfrakcję, rozpraszanie, obrazowanie, spektroskopię absorpcyjną i emisyjną, krystalografię molekularną, spektroskopię UV-VIS, dichroizm magnetyczny.
Czas pomiarowy w ESRF przeznaczony jest przede wszystkim dla naukowców z krajów wnoszących wkład do budżetu ESRF. Projekty indywidualne zbierane są dwa razy w roku, do 1 marca oraz do 10 września i oceniane przez Naukowe Komitety Recenzujące na podstawie ich wartości naukowej. Ostateczna decyzja o wyborze projektów do realizacji zależy od technicznych możliwości wykonania projektu oraz uwzględnia wykorzystania przez dany kraj należnego czasu badawczego.
Dostęp do wiązki polskim naukowcom zapewnia grant Ministerstwa Nauki i Szkolnictwa Wyższego pt. "Polski wkład do Europejskiego Centrum Promieniowania Synchrotronowego" (UMOWA Nr 2021/WK/11), który finansuje 1% wkładu do ESRF. Oferuje on również dofinansowanie uczestnictwa w konferencjach dla naukowców z polską afiliacją prezentujących wyniki badań przeprowadzonych w ESRF. Regulamin dofinansowania zamieszczony jest na stronie projektu: http://www.ifpan.edu.pl/esrf/.
Wystąpienie będzie serią doświadczeń ułożonych w pokaz wykorzystania technologii cyfrowej do skutecznego nauczania fizyki w szkołach podstawowych i średnich.
Urządzenia komputerowe i smartfony są obecnie jednym z bardziej znaczących sposobów poznawania świata przez współczesną młodzież. Nowoczesna dydaktyka nie powinna pomijać tego faktu, a może wykorzystać go przy budowaniu motywacji uczniów do nauki oraz integrowania różnych dziedzin wchodzących w skład STEM.
Na przykład, obserwacja w czasie rzeczywistym zmian prostych wielkości fizycznych uczy nawet najmłodsze dzieci intuicji potrzebnych przy odczytywaniu i tworzeniu wykresów, a to przydaje się nie tylko na lekcjach matematyki, ale także w wielu innych sytuacjach wymagających interpretacji wyników eksperymentów przyrodniczych.
Technologia cyfrowa pozwala bardzo szybko przygotować i wykonać doświadczenia w klasie, a szerokie spektrum możliwości przedstawienia wyników w sposób poglądowy ułatwia uczniom zrozumienie i zapamiętanie praw fizyki.
Ze względów dydaktycznych niektóre doświadczenia powinny zostać wykonane w sposób tradycyjny, by uczniowie w pełni zrozumieli istotę zjawiska. Warto jednak, by nauczyciel – nie poświęcając na to zbyt wiele czasu – zaprezentował uczniom przykład współczesnych metod pomiarowych. Przyczyni się to do poszerzenia horyzontów edukacyjnych młodzieży i powiązania fizyki z innymi dziedzinami STEM. Bardzo często jest to możliwe dysponując prostymi czujnikami cyfrowymi zaprojektowanymi do celów edukacyjnych.
Stosowanie technik doświadczalnych opracowanych w XIX lub na początku XX wieku nie jest dobrym sposobem nauczania współczesnej młodzieży, od której przyszli pracodawcy będą oczekiwać nie tylko wiedzy i umiejętności przedmiotowych, ale także powiązania ich z technologią cyfrową i elementami inżynierii. Eksperymenty, które zostaną zaprezentowane odpowiadają wyzwaniu nauczania w skuteczny sposób tego, co uczniom najbardziej potrzebne.
Narodowe Centrum Promieniowania Synchrotronowego SOLARIS Uniwersytetu Jagiellońskiego to unikalna infrastruktura badawcza w Polsce, oferująca szerokie możliwości nie tylko dla naukowców, ale również w przestrzeni edukacji i popularyzacji nauki. SOLARIS stanowi miejsce prowadzenia zaawansowanych badań w dziedzinie fizyki, chemii, biologii i nauk stosowanych, ale także jest swoistym centrum edukacji, w którym można doświadczyć nauki w sposób interaktywny i angażujący. Narodowe Centrum od dwóch lat organizuje oprowadzanie po swojej infrastrukturze badawczej, oferując zwiedzającym możliwość poznania technologii synchrotronowej i kriomikroskopowej, ich zastosowań oraz znaczenia dla rozwoju nauki i przemysłu. Uczestnicy wycieczek mogą zobaczyć na żywo synchrotron i jego kluczowe elementy, dowiedzieć się, jak powstaje i wykorzystywane jest promieniowanie synchrotronowe, a także jak przyczynia się ono do przełomowych odkryć w medycynie, inżynierii czy ochronie dziedzictwa kulturowego.
Akademia Skilla to dwuletni projekt edukacyjny (2024-2026) realizowany przez Narodowe Centrum Promieniowania Synchrotronowego SOLARIS, w ramach grantu SON II, finansowanego z Ministerstwa Nauki i Szkolnictwa Wyższego. Projekt łączy naukę z praktyką, wykorzystując zaawansowaną infrastrukturę badawczą synchrotronu i laboratorium kriomikroskopii. Jego celem jest popularyzacja nauk ścisłych, rozwijanie pasji do badań naukowych oraz inspirowanie młodych umysłów do budowania kariery dziedzinach o wysokiej specjalizacji, a także zakorzenienie postawy cechującej nadrzędną rolę nauki w procesie globalnego rozwoju cywilizacyjnego.
W ramach przedsięwzięcia skierowanego do nauczycieli i uczniów, przewidziano oprowadzanie po Centrum SOLARIS, podczas którego uczestnicy mogą poznać funkcjonowanie akceleratorów oraz metody badawcze wykorzystujące promieniowanie synchrotronowe. Kluczowym elementem projektu jest opracowanie i wdrożenie innowacyjnej gry edukacyjnej, która w przystępny sposób tłumaczy złożone zagadnienia naukowe i stanowi atrakcyjne narzędzie dydaktyczne dla uczniów i nauczycieli.
Dzięki wykorzystaniu nowoczesnych multimedialnych form, takich jak audioprzewodniki i ekrany haptyczne, Akademia Skilla umożliwia uczestnikom zdobywanie praktycznych umiejętności z zakresu badań naukowych i technologii akceleratorowych. Program wzbogaca dydaktykę poprzez interaktywne formy nauki, rozwijając krytyczne myślenie, umiejętność pracy zespołowej oraz inspirując młodych ludzi do dalszej eksploracji świata nauki i technologii.
Wystąpienie przedstawi potencjał Narodowego Centrum SOLARIS jako przestrzeni popularyzacji nauki, omawiając rolę Akademii Skilla w budowaniu świadomości naukowej oraz inspirowaniu młodych ludzi do eksploracji świata fizyki i inżynierii. W szczególności zostanie zaprezentowana koncepcja innowacyjnej gry dydaktycznej oraz sposoby jej implementacji w edukacji formalnej i nieformalnej.
Każdy etap rozwoju młodego człowieka — aż do osiągnięcia dorosłości — kształtowany jest przez wiedzę i doświadczenia zdobywane na kolejnych poziomach edukacji. Zgodnie z Prawem oświatowym [1], „kształcenie i wychowanie służy rozwijaniu u młodzieży poczucia odpowiedzialności, miłości do Ojczyzny oraz poszanowania dla polskiego dziedzictwa kulturowego, przy jednoczesnym otwarciu się na wartości kultur Europy i świata. Szkoła powinna zapewnić każdemu uczniowi warunki niezbędne do jego rozwoju oraz przygotować go do wypełniania obowiązków rodzinnych i obywatelskich, w oparciu o zasady solidarności, demokracji, tolerancji, sprawiedliwości i wolności”.
Na kolejnych szczeblach kształcenia ujawnia się, że misją szkolnictwa wyższego i nauki jest nie tylko prowadzenie edukacji oraz badań na najwyższym poziomie, ale również kształtowanie postaw obywatelskich oraz aktywny udział w rozwoju społecznym i gospodarczym, opartym na innowacjach [2].
Choć założenia systemu edukacyjnego są spójne i logiczne, w praktyce obserwujemy wyraźną lukę kompetencyjną między szkołą podstawową a średnią. Przejście na kolejny poziom edukacji często wiąże się z tzw. „przepaścią edukacyjną”. Różnice w stylu nauczania, wymaganiach oraz funkcjonowaniu szkół podstawowych, średnich i wyższych powodują trudności adaptacyjne u uczniów. Zmiana otoczenia, nowych nauczycieli oraz wzrost oczekiwań nierzadko wywołują silny stres i obniżenie wyników w nauce. Najskuteczniejszym sposobem na zmniejszenie tych dysproporcji jest stworzenie wspólnego języka edukacyjnego, który umożliwi płynne przechodzenie między kolejnymi etapami nauki. Kluczowe znaczenie ma w tym kontekście trwała i świadoma współpraca pomiędzy szkołami podstawowymi, średnimi i uczelniami wyższymi.
Podczas spotkania zaprezentowane zostaną dobre praktyki takiej współpracy na przykładzie działalności Opolskiego Festiwalu Nauki oraz Wirtualnej Akademii Astronomii, funkcjonującej przy Uniwersytecie Opolskim. Wirtualna Akademia działa na podstawie porozumienia zawartego między Instytutem Fizyki Uniwersytetu Opolskiego, Opolskim Towarzystwem Przyjaciół Nauk oraz Opolskim Oddziałem Polskiego Towarzystwa Fizycznego.
Uczniowie, jako uczestnicy Wirtualnej Akademii Astronomii, zdobywają dodatkową wiedzę, działając w strukturze uniwersyteckiej zgodnie z zasadami systemu bolońskiego.
[1] Dz.U. 2024 poz. 737 Prawo oświatowe
[2] Dz. U. 2018 poz. 1668, Art. 3 USTAWA z dnia 20 lipca 2018 r. Prawo o szkolnictwie wyższym i nauce
Przedstawimy realizację idei Otwartych Kół Olimpiskich, która w ostatnim czasie objęła w Lublinie kolejne przedmioty. Szczegółowo omówimy działalność koła z fizyki – najstarszego z nich, które po kilkunastu latach funkcjonowania może poszczycić się całym gronem laureatów Olimpady Fizycznej.
Turniej Młodych Fizyków (TMF) to ogólnopolskie zawody drużynowe, które stymulują prawidłową pracę badawczą. Podczas spotkania pokażemy, jak skutecznie rozpocząć i prowadzić prace nad 17 otwartymi problemami tegorocznej edycji TMF. Uczestnicy dowiedzą się:
jak krok po kroku przebiega rywalizacja – od etapu korespondencyjnego po ogólnopolski finał,
które kompetencje (projektowanie doświadczeń, analiza danych, modelowanie teoretyczne, umiejętność dyskusji) są kluczowe na poszczególnych etapach.
jakie narzędzia komputerowe pomagają w przygotowaniach do turnieju.
Dodatkowo zaprezentujemy jedną z najlepszych prac zeszłorocznej reprezentacji Polski, która zdobyła srebrny medal na Międzynarodowym Turnieju.
Sesja jest adresowana do nauczycieli-opiekunów i uczniów zainteresowanych udziałem w TMF oraz do wszystkich entuzjastów nauczania poprzez badania i dyskusję.
Promieniowanie kosmiczne zostało odkryte już ponad 100 lat temu (w 1912 roku przez Victora Franza Hessa [1]), a dzięki rozwojowi technik detekcji coraz lepiej je poznajemy i rozumiemy. Ponieważ jednak badania prowadzono w wyspecjalizowanych obserwatoriach nie istniało dotychczas zbyt wiele programów nauki obywatelskiej poświęconych promieniowaniu kosmicznemu. Program CREDO-edu zmieni ten stan rzeczy. Stworzyliśmy aplikację działającą zarówno na smartfonach jak i kamerach USB do pomiaru promieniowania kosmicznego w warunkach szkolnych i domowych, oraz opracowaliśmy zestaw materiałów edukacyjnych, który umożliwi nauczycielom przeprowadzenie angażujących zajęć wprowadzających w zagadnienia fizyki współczesnej. Program obejmuje także wsparcie dla nauczycieli w postaci wykładów i warsztatów skoncentrowanych na metodyce.
Będą omówione niejasności w powszechnie stosowanych określeniach ciężaru i stanu nieważkości. Na podstawie zasad dynamiki i lokalnego charakteru oddziaływań będzie pokazane, że ciężar (siła grawitacji) jest siłą pozorną i stąd biorą się wspomniane niejasności. Zatem nie odczuwamy w ogóle ciężaru lecz tylko siłę nacisku od podłoża - powierzchnia Ziemi ma przyspieszenie skierowane w górę. Dlaczego mimo tego Ziemia się nie rozszerza - wyjaśnia to w zaskakujący i elegancki sposób ogólna teoria względności.
W podsumowaniu zastanowimy się, jakie z tego wszystkiego należy wyciągnąć wnioski dotyczące popularyzacji i nauczania fizyki?
Kopernik kojarzy nam się z badaniem obiektów w skali kosmicznej. Natomiast niewielu wie, że w manuskrypcie De revolutionibus znajduje się fragment liczący 56 wyrazów, w którym znajdujemy słowo atomy (łac. atomi). Kopernik wykorzystał w nim pojęcie atomu do sformułowania jednego z kilku argumentów za niezmiernie wielką odległością do gwiazd stałych.
Przedyskutowane zostaną relacje między manuskryptem Kopernika, wydaniami łacińskimi De revolutionibus, oraz tłumaczeniami na język polski i angielski. Spróbujemy odpowiedzieć na nasuwające się pytania: Dlaczego fragmentu tego nie ma w pierwodruku norymberskim z 1543 r i kolejnych wydaniach do końca XIX w.? Jak Kopernik rozumiał pojęcie atomu? Skąd mógł znać tą hipotezę? Jak jego argument za olbrzymią odległością do gwiazd wygląda w świetle współczesnej wiedzy?
Dodatkowo, omówione zostaną poglądy Keplera na nieciągłą strukturę materii, przedstawione przezeń w pracy O sześciokątnych płatkach śniegu z 1611 r., oraz mało znany fakt pobytu Retyka w Krakowie w latach 1554–1574.
Sesja jest połączeniem sesji dydaktycznej posterowej z soboty i poniedziałkowej sesji posterowej, z myślą o tych, którzy nie mogą uczestniczyć w sesjach plakatowych w sobotę lub poniedziałek.
Wykład poświęcony będzie ewolucji technologii napędowych – od silników spalających paliwa kopalne po nowoczesne rozwiązania oparte na wodorze. Omówimy kluczowe wyzwania związane z dekarbonizacją oraz rolę wodoru jako paliwa przyszłości. Przyjrzymy się innowacyjnym technologiom napędowym oraz ich wpływowi na środowisko.
Wykład dedykowany jest uczniom szkół średnich.
Zapraszamy!
Liczba osób ograniczona. Obowiązują zapisy poprzez formularz zgłoszeniowy
Wykład przedstawia historię Instytutu Onkologii w Gliwicach, która nierozerwalnie wiąże się z fizyką i fizyką medyczną. Choć zadania fizyka w radioterapii pozostały niezmienne od czasu pierwszego zastosowania promieniowania jonizującego w medycynie, to status fizyka medycznego uległ znacznym przemianom. Rozwój informatyki oraz technologii generowania promieniowania stosowanego w radioterapii wymaga od fizyków medycznych stałego pogłębiania wiedzy o efektach oddziaływania promieniowania z materią. To jednak nie wszystko. Coraz częściej fizycy medyczni zajmują się modelowaniem dawek biologicznych, ponieważ pochłonięta dawka promieniowania a uzyskany efekt biologiczny to dwa odmienne zagadnienia. W Narodowym Instytucie Onkologii w Gliwicach fizycy medyczni są integralną częścią zespołu prowadzącego leczenie z wykorzystaniem promieniowania jonizującego i bardzo często pełnią rolę motoru napędowego we wprowadzaniu nowych technik radioterapii.
Ponad 25 lat temu, wspólnie z prof. Zbigniewem Religą, rozpoczęliśmy prace nad projektem robota chirurgicznego, który nazwałem Robin Heart. Już sama nazwa wskazywała, że naszym celem było stworzenie urządzenia wspierającego pracę chirurga, szczególnie w operacjach serca.
W ciągu tego ćwierćwiecza opracowaliśmy kilkanaście prototypów i modeli. Zdarzały się okresy dobrego finansowania, ale bywały też lata, gdy środków brakowało zupełnie. Obecnie, od dłuższego czasu, nie dysponujemy żadnym wsparciem finansowym, dlatego rozwijamy tylko te elementy projektu, które nie wymagają dużych nakładów – przede wszystkim oprogramowanie, integrację sztucznej inteligencji oraz inne funkcje wspomagające. Nie udało nam się znaleźć w Polsce inwestora ani firmy, która wsparła by nasze, zgodnie z wymogami, starania o finansowanie wdrożenia. Sprzedaliśmy licencje na jednego robota Robin Heart PortVisionAble firmie Meden-Inmed z Koszalina ale nie podjęła jego produkcji. Obecnie sprzedaje pierwszy na rynku chiński robot chirurgiczny.
Polski robot wyróżnia się wieloma oryginalnymi rozwiązaniami. Kluczowa jest jego modułowa konstrukcja – poszczególne narzędzia chirurgiczne można łatwo odłączyć od robota i w razie potrzeby używać ich ręcznie. Pracujemy również nad możliwością przeprowadzania operacji na odległość, choć to nadal wyzwanie – zagrożenia związane z opóźnieniem transmisji i utratą sygnału są poważne.
Dlatego Robin Heart nie tylko odwzorowuje ruchy dłoni chirurga. Konsekwentnie pracujemy nad systemami zwiększającymi bezpieczeństwo – robot powinien wiedzieć, jak się zachować w przypadku utraty kontaktu z operatorem, które działania powinien przerwać, które może wykonać autonomicznie, jak reagować w sytuacji nagłego krwotoku. Takie rozwiązania, oparte na sieci czujników i sztucznej inteligencji, są innowacyjne w skali światowej.
W ten sposób odeszliśmy od tradycyjnego modelu „pan–niewolnik” (master–slave), charakterystycznego dla klasycznych telemanipulatorów. Robin Heart AI to partner chirurga – w razie potrzeby przejmuje kontrolę, samodzielnie zarządzając ryzykiem.
Po postępach przesyłania na odległość informacji (telemedycyna) czas na przesyłanie na odległość działania. Bezpieczeństwo zależy od obecności i sprawczości wykonawcy usług medycznych. Wobec braku kadr, rosnących potrzebach i oczekiwaniach społecznych roboty medyczne stają się jedyną szansą na realizację naszej obietnicy o powszechnym dostępie do najwyższej jakości opieki medycznej.
Technologia zmienia świat, a technologię napędza nauka, a naukę tworzą uczniowie. A naukę tworzą zbuntowani uczniowie, czyli… uczniowie dobrych nauczycieli. Zawsze uznawałem za swój wielki przywilej, że mogłem stawać przed młodzieżą, i tą akademicką, i szkolną, i proponować im swoją wizję poszukiwania sensu życia, sensu pracy dla siebie, czyli wszystkich. To technologia, dostęp do narzędzi mogą zmieniać świat. Ale to nasza odpowiedź na te pytania go zmienia. Już wielokrotnie straciliśmy raj z powodu decyzji konsumenckiej.
W medycynie nie chodzi o to by żyć najdłużej tylko by każdy miał szansę je przeżyć – wbrew chorobom, wypadkom czy innym losowym zagrożeniom, które czyhają na każdego z nas.
Lekarz lecząc pacjenta naprawia kawałek świata
Człowiek powinien żyć dłużej. Ale przede wszystkim powinien żyć lepiej. Zagrożenie wynikające z ingerencji świata zewnętrznego i chorób będzie minimalizowane dzięki pracy rzeszy naukowców reprezentujących wiele dyscyplin naukowych. Zawsze wierzyłem, że warto choć o metr przesunąć tę granicę stąd do wieczności.
Nie przypuszczałem, że wieczność może być osiągnięta dzięki sztucznej inteligencji, która z pewnością może nas przetrwać. Jednak zanim to nastąpi, AI wielokrotnie nas uratuje i pomoże wyjść z wielu problemów, w które sami się uwikłaliśmy.
Dla języka polskiego opracowano 4 wzory przystępności tekstu. Podczas wystąpienia wzory te zostaną przedstawione w kontekście języka fizyki szkolnej traktowanego jako język tekstów podręczników szkolnych. Analiza obejmie wybrane podręczniki fizyki dopuszczone do użytku w szkołach podstawowych i będzie wstępem do dyskusji na temat użyteczności tych wzorców do oceny "zrozumiałości" tekstów przez współczesnych ich adresatów.
Wystąpienie stanowi refleksję nad rolą i znaczeniem Olimpiady Fizycznej z perspektywy nauczyciela przygotowującego uczniów do udziału w tym prestiżowym konkursie i - od niedawna - cieszącego się sukcesami swoich podopiecznych. Omówione zostaną korzyści płynące z uczestnictwa w Olimpiadzie, zarówno dla uczniów jak i dla nauczycieli, dla których jest to okazja do rozwoju zawodowego, pracy z pasjonatami oraz satysfakcji z towarzyszenia młodym ludziom w ich naukowej drodze.
Zaprezentowane zostaną przykłady zadań olimpijskich, zarówno teoretycznych, jak i doświadczalnych, wraz z omówieniem ich poziomu trudności oraz tego, jakiego rodzaju umiejętności wymagają od uczestników. Przeanalizowane zostaną wybrane zadania z etapów: korespondencyjnych, okręgowych i finałowych z ostatnich lat.
Część wystąpienia poświęcona będzie przeglądowi metod pracy z uczniami przygotowującymi się do Olimpiady. Przedstawię również swoją subiektywną ocenę skuteczności poszczególnych podejść oraz praktyczne wskazówki dla nauczycieli, którzy chcieliby rozpocząć lub udoskonalić swoją pracę z potencjalnymi olimpijczykami.
Wraz z uruchomieniem wiązki protonów w CCB, służącej do terapii hadronowej, pojawiła się możliwość prowadzenia w IFJ eksperymentów fizyki jądrowej z wykorzystaniem reakcji nieelastycznego rozpraszania protonów. W tym celu zostało zbudowane stanowisko pomiarowe wyposażone w układy detektorów służących do rejestracji rozproszonych protonów wiązki, a także kwantów gamma i cząstek naładowanych emitowanych w wyniku rozpadu stanów wzbudzonych jąder atomowych.
Z wykorzystaniem tego stanowiska prowadzone są badania rozpadów wzbudzeń kolektywnych jąder atomowych takich, jak gigantyczne i pigmejskie rezonanse. Podczas wystąpienia zostanie przedstawiona metoda pomiaru oraz najciekawsze wyniki, do których należą pomiar rozpadu $\gamma$ gigantycznego rezonansu kwadrupolowego w jądrze $^{208}$Pb oraz pigmejskich rezonansów dipolowych w izotopach $^{58,62,64}$Ni.
Od ponad 30 lat Warszawski Cyklotron dostarcza wiązek ciężkich jonów do eksperymentów fizyki jądrowej. Pomiary prowadzone w Środowiskowym Laboratorium Ciężkich Jonów w Uniwersytecie Warszawskich pozwalają miedzynarodowym zespołom badawczym badać strukturę jąder atomowych. Zjawiska takie jak koegzystencja kształtów i spontaniczne łamanie jądrowej symetrii chiralnej badane są narzędziami spektroskopii gamma o wysokiej rozdzielczości. Wpływ struktury na mechanizm reakcji jądrowej jest szczegółowo studiowany w procesach wywołanych lekkimi pociskami z początku tablicy izotopów.
Badania podstawowe z fizyki jądrowej, dominujące w aktywności naukowej SLCJ, inspirują szeroki zakres prac interdyscyplinarnych i aplikacyjnych. Prowadzone od dawna prace nad produkcją nowych radio-znaczników dla medycyny nuklearnej uzupełniane są badaniami z obszaru radiobiologi nad radio-wrażliwością komórek nowotworowych. Natomiast intensywne wykorzystanie w pomiarach detektorów cząstek naładowanych stymuluje badania odporności materiałów na zniszczenie radiacyjne.
Wyniki tych badań uzyskane w SLCJ w ostatnim czasie stanowią zachętę do dalszego rozwoju i planowania kampanii z wykorzystaniem nowych technik detekcyjnych niedostępnych dotychczas w Polsce takich jak rejestracja jąder odrzutu z pomocą krakowskiego RFD i bezpośrednie pomiary czasów życia stanów jądrowych metodą fast-timing. Plany uczonych związane z nowymi układami eksperymentalnymi dotyczą nowych w SLCJ obszarów badań, np. studiów własności jąder aktynowców.
Przebieg reakcji jądrowych w środowiskach metalowych inicjowanych niskoenergetycznymi lekkimi jonami wykazuje silną zależność od struktury krystalicznej materiału badanej tarczy. W Centrum Fizyki Eksperymentalnej Uniwersytetu Szczecińskiego (eLBRUS) po raz pierwszy przeprowadzono badania dotyczące wpływu śladowych zanieczyszczeń na wzmocnienie reakcji fuzji jądrowej d+d w metalowych tarczach, w których obserwuje się zjawisko ekranowania elektronowego. Badania te mają charakter pionierski dzięki połączeniu specjalistycznych technik akceleratorowych zoptymalizowanych pod kątem wzbudzania reakcji jądrowych za pomocą niskoenergetycznych jonów, z technikami spektroskopowymi pozwalającymi na szczegółową analizę struktury badanych materiałów.
Uzyskane wyniki wskazują, że jednorodne rozmieszczenie deuteronów w objętości tarczy przyczynia się do zwiększenia zjawiska ekranowania elektronowego, co z kolei prowadzi do wzrostu przekroju czynnego dla reakcji jądrowych zachodzących przy niskich energiach. Równocześnie wykazano istotny wpływ powierzchniowych zanieczyszczeń tlenowych i węglowych, które sprzyjają pułapkowaniu deuteronów w defektach sieci krystalicznej. Proces ten prowadzi do zwiększenia efektywnej masy elektronów w miejscu zachodzenia reakcji, co również wpływa na intensyfikację reakcji jądrowych.
Ponadto, w ramach tych badań po raz pierwszy zaobserwowano emisję elektronów z fuzji deuteronów inicjowanej niskoenergetycznymi jonami. Emisja ta powiązana jest z rozpadem rezonansowego stanu 0⁺ w jądrze złożonym ⁴He – również po raz pierwszy zaobserwowanego przez zespół badawczy z laboratoriów eLBRUS.
Odkrycia te mogą mieć istotne znaczenie dla rozwoju astrofizyki jądrowej i badań nad źródłami energii jądrowej opartymi na procesach fuzji wzbudzanych niskoenergetycznymi jonami.
Postęp w dziedzinie komunikacji kwantowej wymaga opracowania źródeł nieklasycznych stanów światła, w szczególności źródeł pojedynczych fotonów. Z powodów praktycznych powinny one emitować w zakresie podczerwieni telekomunikacyjnej (pasmo C, dla którego straty w powszechnie używanych światłowodach są najniższe odpowiada długości fali 1550 nm). Jednym z układów fizycznych mogących generować pojedyncze fotony na żądanie są epitaksjalne kropki kwantowe. Ich użycie zapewnia najmniejsze prawdopodobieństwo emisji wielofotonowej oraz jest kompatybilne z technologią półprzewodnikową. Jednakże w najbardziej pożądanym zakresie spektralnym ich parametry wciąż wymagają poprawy. W odpowiedzi na brak emiterów pojedynczych fotonów na ten zakres o właściwościach pozwalających na realizację praktycznych urządzeń, proponujemy zweryfikowanie potencjału aplikacyjnego nowej platformy materiałowej (In)GaSb/AlGaSb, pozwalającej na wytworzenie kropek kwantowych emitujących w zakresie telekomunikacyjnym.
Badane kropki kwantowe powstają poprzez wypełnienie materiałem (In)GaSb zagłębienia w materiale bariery – AlGaSb, powstałego poprzez jej trawienie kroplą Al w komorze reaktora do epitaksji z wiązek molekularnych. Ta metoda wzrostu pozwala na łączenie materiałów nawet o niewielkich różnicach stałych sieci, które nie pozwalają na wytwarzanie w standardowym trybie wzrostu Stranskiego-Krastanowa, oraz zapewnia prawie idealną symetrię w płaszczyźnie, istotną dla generacji par polaryzacyjnie splątanych fotonów [1,2]. Nie była ona do tej pory stosowana w tym układzie materiałowym, więc konieczne było znalezienie optymalnych warunków wytwarzania [3,4]. W prezentacji przedstawione zostaną podstawowe właściwości optyczne takich kropek wyznaczone zarówno doświadczalnie metodami spektroskopii optycznej [5,6], jak i numerycznie – obliczenia przeprowadzono przy użyciu wielopasmowej metody k.p i metody konfiguracji-oddziaływania [7-9].
Nanocząstki plazmonowe to takie, w których występuje efekt LSPR (Localised Surface Plasmon Resonance), czyli Zlokalizowany Powierzchniowy Rezonans Plazmonowy, polegający na kolektywnej oscylacji elektronów z pasma przewodnictwa. Zachodzi wtedy, gdy na nanocząstkę plazmonową pada światło o określonej długości fali, a mierzalnym makroskopowo jego skutkiem jest wzrost temperatury. To, dla jakiej długości fali zajdzie LSPR zależy od ich kształtu, rozmiaru oraz materiału. Przykładowo, dla nanocząstek złota w formie nanoprętów o długości ok. 24 nm i średnicy ok. 5 nm maksimum absorbancji przypada w bliskiej podczerwieni (długość fali ok. 800 nm), podczas gdy dla nanocząstek kulistych złota leży w zakresie światła zielonego (długość fali ok. 530 nm).
W prezentacji będą przedstawione wyniki badań termograficznych dla zsyntezowanych metodą bezzarodkową nanoprętów złota (modyfikacja przedstawionej przez Ali et al. 2012), a także dla kulistych nanocząstek złota o średnicach 15±3 nm, otrzymanych metodą Turkevicha (2), jak również nanocząstek złota o średnicach 5±3 nm oraz 50±8 nm. Eksperyment polegał na umieszczeniu kropli zawiesiny nanocząstek na końcu pipety, oświetleniu jej światłem lasera i rejestracji rozkładu temperatury w kropli kamerą termograficzną Użyto laserów o długości fali 808 nm i 532 nm (odpowiadającej maksimom absorbancji dla nanoprętów, i dla nanoczastek sferycznych) a badania przeprowadzono dla różnych mocy światła laserowego oraz dla różnych mediów dyspersyjnych w których zawieszone były nanocząstki. Zmierzono maksymalne temperatury osiągane w poszczególnych warunkach w funkcji czasu oraz wyznaczono charakterystykę procesu nagrzewania. Absorbancje zostały zmierzone techniką UV-VIS, a także obliczone metodą elementów brzegowych z użyciem pakietu MNPBEM (Hohenster i Trügler 2012). Stężenia hydrozoli złota wyznaczono metodą spektroskopii fluorescencji rentgenowskiej (XRF) oraz spektrometrii emisyjnej z plazmą wzbudzoną indukcyjnie (ICP-OES). Strukturę krystaliczną określono przy pomocy dyfraktometrii rentgenowskiej (XRD), a rozmiary nanocząstek wyznaczono z obrazów otrzymanych metodą skaningowej transmisyjnej mikroskopii elektronowej (STEM).
Przeprowadzone badania ukazują wysoką efektywność nagrzewania plazmonowego i jego punktowy charakter, odzwierciedlający mały przekrój naświetlającej wiązki laserowej. Osiągane maksymalne temperatury zależą od mocy wiązki i dla próbek o stężeniu procentowym masowym rzędu 0,0030 wt% złota w wodzie mogą przekraczać 100 oC w ciągu minuty od włączenia lasera. Wyniki te są obiecujące pod kątem zastosowań, w tym biomedycznych, takich jak celowana hipertermia plazmonowa.
Projekt badawczy finansowany ze środków programu „Inicjatywa Doskonałości – Uczelnia Badawcza” w AGH//Research project supported by program „Excellence initiative – research university” for the AGH University of Krakow.
Bibliography//References
[1] Ali M. R. K. et al. “Synthesis and optical properties of small Au nanorods using a seedless growth technique”. In: Langmuir Jun 26;28(25) (2012), p. 9807-15. DOI: http://dx.doi.org/10.1021/la301387p.
[2] Turkevich, J., Garton, G., & Stevenson, P. C. (1954). The color of colloidal gold. Journal of colloid Science, 9, 26-35. DOI: http://dx.doi.org/10.1016/0095-8522(54)90070-7.
[3] Hohenster U. and Trügler A. “MNPBEM – A Matlab toolbox for the simulation of plasmonic nanoparticles”. In: Computer Physics Communications Feb 183(2), p. 370-381. DOI: http://dx.doi.org/10.1016/j.cpc.2011.09.009.
Badania teoretyczne układów trzynukleonowych prowadzone są w Krakowie od prawie czterdziestu lat. W tym czasie nasza grupa zdobyła bardzo bogate doświadczenie, analizując różnego typu obserwable w reakcjach elastycznego rozpraszania nukleon-deuteron oraz w procesie rozpadu deuteronu wywołanym przez nukleon.
Badania te opierają się na ścisłych rozwiązaniach równań Faddiejewa dla układu trzech nukleonów i mają na celu zrozumienie właściwości oddziaływań dwunukleonowych oraz trzynukleonowych. Od końca lat osiemdziesiątych XX wieku wiele różnych modeli potencjałów jądrowych, w tym kilka generacji sił wyprowadzonych w ramach chiralnej efektywnej teorii pola, zostało przez nas dokładnie sprawdzonych.
Poza reakcjami w układach zawierających jedynie nukleony, nasz formalizm i metody numeryczne były również wykorzystywane do opisu wielu procesów elektrosłabych, w których oddziaływania w stanie początkowym lub końcowym między trzema nukleonami odgrywają istotną rolę.
Nasze wyniki teoretyczne muszą być konfrontowane z precyzyjnymi danymi doświadczalnymi, dlatego współpraca z wieloma grupami eksperymentalnymi na całym świecie jest kluczowa dla naszych badań.
Oddziaływania pairing odgrywają istotną rolę w procesie opisu rozszczepienia ponieważ masa kolektywna jądra maleje odwrotnie proporcjonalnie do kwadratu przerwy energetycznej. Ta zależność znacząco wpływa na wartość działania na ścieżce prowadzącej do rozszczepienia a tym samym na prawdopodobieństwo tunelowania przez barierę potencjału. Pełen opis zjawiska powinien traktować pairing na równi z parametrami deformacji przy szukaniu ścieżki najmniejszego działania. W niniejszej pracy pokazujemy, że czasy połowicznego zaniku ze względu na spontaniczne rozszczepienie dla izotopów Fm i Rf mogą zostać odtworzone w teorii mikroskopowej poprzez rozważenie ścieżki o najmniejszym działaniu w przestrzeni dwuwymiarowej z więzami na moment kwadrupolowy i inną zmienną kolektywną związaną z oddziaływaniem pairing: fluktuacje liczby cząstek oraz parametr przerwy energetycznej. Do wyznaczenia ścieżki rozszczepienia zastosowano zmodyfikowany algorytm Dijkstry.
NUMER IDENTYFIKACYJNY // CONTRIBUTION ID
Waveform Pattern Alignment: Nowe podejście do diagnostyki wiązek metodą czasu przelotu
Autor // Author: Wiktor Parol1, Adam Kozela1, Paweł Kulessa1, Bogusław Włoch2
1 IInstitute of Nuclear Physics Polish Academy of Sciences, PL-31342 Kraków
2 Université de Bordeaux CNRS, LP2I Bordeaux, 33170, Gradignan, France
Korespondujący autor // Corresponding Author: wiktor.parol@ifj.edu.pl, wiktor.parol@gmail.com
Eksperymenty akceleratorowe wymagające wysokiej precyzji, takie jak badania oddziaływań jądrowych w układach kilku ciał, wymagają dokładnej znajomości kinematyki reakcji. Jest ona definiowana przez parametry wiązki hadronowej: średnią energię kinetyczną cząstek oraz rozkład ich energii indywidualnych. Choć akceleratory dostarczają wiązki o zadanych energiach w określonych parametrach nominalnych, ich niezależny monitoring w układzie eksperymentalnym pozwala zminimalizować zakres błędów systematycznych. Różnice między żądaną a faktycznie dostarczoną energią wiązki, a także zmienność energii pomiędzy poszczególnymi cząstkami, wpływają również na wiarygodność procedur takich jak kalibracja detektorów, identyfikacja cząstek, co w przypadku badania układów kilku nukleonów wprowadza dodatkową nieoznaczoność czynników normalizacyjnych dla przekrojów czynnych [1].
Osobny problem stanowią akceleratory wykorzystywane w badaniach naukowych, które pierwotnie zaprojektowane zostały do zastosowań medycznych, np. Proteus-235. Kalibruje się je w oparciu o zasięg cząstek w wodzie lub deponowaną dawkę, a nie bezpośrednio w jednostkach energii wiązki. Rozwój zastosowań wiązek hadronowych, w szczególności budowa nowych centrów radioterapii, tworzy przestrzeń do opracowania nowych detektorów i metod diagnostyki wiązki [2-4].
Waveform Pattern Alignment (WPA) to metoda oparta na technice czasu przelotu, która pozwala na szybkie wyznaczenie energii wiązki hadronowej wykorzystywanej w eksperymentach fizyki jądrowej lub zastosowaniach klinicznych. Innowacyjny aspekt tej metody umożliwia zarówno wyznaczenie średniej energii kinetycznej reprezentatywnej próbki hadronów, jak i rozkładu ich indywidualnych energii. WPA umożliwia powtarzalny i precyzyjny pomiar w czasie niezakłócającym przebiegu eksperymentu.
Zastosowanie WPA w centrach radioterapii powinno wpłynąć na zwiększenie bezpieczeństwa, oferując wiarygodny pomiar diagnostyczny możliwy do przeprowadzenia w czasie pomiędzy wyprowadzeniem i wprowadzeniem kolejnych pacjentów.
Testy metody oraz prototypowego urządzenia przeprowadzono na wiązkach protonowych dostarczanych przez akceleratory COSY (FZ Jülich), Proteus-235 oraz AIC-144 (IFJ PAN). Podstawy teoretyczne metody, jak i wyniki testowych pomiarów, zaprezentowane zostaną podczas wystąpienia.
References
[1] W. Parol et al., Phys. Rev. C 102, 054002 (2020)
doi: https://doi.org/10.1103/PhysRevC.102.054002
[2] M. Kisieliński, J. Wojtkowska, NUKLEONIKA 52(1), 3–5 (2007)
doi: N/A
[3] A. Vignati et al., Phys. Med. Biol.P 65, 215030 (2020)
doi: https://doi.org/10.1088/1361-6560/abab58
[4] A. Vignati et al. J. Instrum. 17, C11001 (2022)
doi: https://doi.org/10.1088/1748-0221/17/11/C11001
Eksperyment NA61/SHINE (SPS Heavy Ion and Neutrino Experiment), prowadzony w CERN przy akceleratorze SPS, jest jednym z kluczowych przedsięwzięć mających na celu zrozumienie właściwości silnie oddziałującej materii w warunkach ekstremalnych. Główne cele eksperymentu to badanie przejścia do fazy kwarkowo-gluonowej oraz poszukiwanie tzw. punktu krytycznego w diagramie fazowym QCD. Dodatkowo NA61/SHINE dostarcza istotnych danych dla fizyki neutrin oraz do modelowania produkcji cząstek w atmosferze i zmian promieniowania kosmicznego podczas jego podróży przez przestrzeń kosmiczną — co jest szczególnie ważne dla eksperymentów neutrinowych i kosmicznych. W prezentacji zostaną omówione najnowsze wyniki eksperymentu, zależności mierzonych obserwabli od energii i systemu zderzeń oraz obserwacje mogące wskazywać na istnienie przejścia fazowego w materii jądrowej. Przedstawione zostaną również dane porównawcze z różnych systemów zderzeń (p+p, Be+Be, Ar+Sc, Xe+La, Pb+Pb), które pozwalają lepiej zrozumieć mechanizmy zachodzące podczas oddziaływań hadronowych i jądrowych. Omówione zostaną także plany dalszego rozwoju eksperymentu i jego przyszła rola w badaniach fizyki wysokich energii oraz fizyki neutrin.
Europejskie Źródło Spallacyjnego w Lund jest jednym z największych projektów infrastrukturalnych ostatniej dekady w Europie, dedykowanym zwiększeniu dostępności zimnych neutronów dla szerokiego spektrum badań naukowych. Obecnie wchodzi ono w ostatnią fazę rozruchu, a pierwsza wiązka na tarczy spodziewana jest jeszcze w tym roku.
Projektowana intensywność pojedynczego impulsu wiązki neutronowej będzie prawie stukrotnie większa od kolejnego, do tej pory najmocniejszego źródła tego typu. Stwarza to unikalny potencjał dla badań z obszaru fizyki podstawowej.
Współpraca HIBEAM-NNBAR proponuje wykorzystać ten potencjał poprzez przeprowadzenie serii eksperymentów nakierowanych na najbardziej fundamentalne pytania, wykraczające poza obecne ramy Modelu Standardowego. Przedstawione zostaną dwa z nich, przygotowywane we współpracy z grupą fizyków z
Instytutu Fizyki Jądrowej PAN oraz Uniwersytetu Jagiellońskiego. Pierwszy [1] dąży do znalezienia odpowiedzi na pytanie o naturę tak zwanej Ciemnej Materii, poprzez poprawę czułości na detekcję cząstek o charakterze aksjonów lokalnie o prawie cztery rzędy wielkości. Drugi natomiast poszukuje oscylacji neutron-antyneutron - efektu łamiącego
zasadę zachowania liczby barionowej. Niezachowanie tej wielkości jak dotąd nie było nigdy zaobserwowane, a jest uważane za jeden z warunków koniecznych do wyjaśnienia obserwowanej we wszechświecie asymetrii pomiędzy materią i antymaterią.
[1] P. Fierlinger at al., Phys Rev. Let. 133,181001 (2024), DOI: 10.1103/PhysRevLett.133.181001
[2] A. Addazi et al., Journal of Physics G: Nuclear and Particle Physics 48.7 (2021), 070501. DOI: 10.1088/1361- 6471/abf429.
Neutron-induced reaction cross sections of short-lived nuclei are crucial for our understanding of nuclear astrophysics and for various applications in nuclear technology. However, direct measurements of these cross sections are extremely challenging or even impossible, due to the difficulty in producing and handling the required radioactive targets.
We are developing a a novel approach that, for the first time, employs surrogate reactions in inverse kinematics at a heavy-ion storage ring [1][2]. This method enables us to measure all de-excitation probabilities as a function of the excitation energy of nuclei formed via surrogate reactions, with unprecedented precision, thereby allowing for the indirect determination of the desired neutron-induced cross sections.
In this talk, I will present our methodology and the results from our second successful surrogate-reaction experiment conducted at the ESR storage ring of the GSI/FAIR facility in Darmstadt, Germany. In this experiment, we investigated the (d,p) and (d,d') surrogate reactions on $^{238}$U, achieving a major breakthrough: for the first time, we simultaneously measured fission, $\gamma$-ray, neutron, as well as two- and three-neutron emission probabilities.
Simultaneous measurement of all competing decay channels enables the precise determination of key nuclear properties such as fission barriers, particle transmission coefficients, $\gamma$-ray strength functions, and nuclear level densities, which in turn allow us to infer neutron-induced cross sections for (n,f), (n,$\gamma$), (n,n'), (n,2n), and (n,3n) reactions.
[1] M. Sguazzin et al., Phys. Lett. 134, 2025, 072501.
[2] M. Sguazzin et al., Phys. Rev. C 111, 2025, 024614.
High-temperature superconductors of the REBaCuO type (where RE are the selected Rare Earth metals) are important for applications below temperatures where they show zero resistance to the direct current with the high values of the critical current densities, $j_c$, and critical fields, including the irreversibility field, $H_{irr}$. Significantly, these compounds are the only ones known that can be used in magnetic fields above 1 T (up to ~12 T) at an easily achievable temperatures of liquid nitrogen (77 K).
After a brief introduction to the physics of magnetic vortices, especially about their properties crucial for determining the values of $j_c$ and $H_{irr}$, we will discuss the potential of YBaCuO as a material capable of transmitting currents with the high densities of the order of 10$^6$ A/cm$^2$ (record values reported for single crystals) without losses and maintaining the superconducting state in fields above 80 T. The key issue addressed here is to increase the critical current density without significantly deteriorating other important parameters of the superconductor, such as the critical temperature or the upper critical field. Achieving such materials should result in lowering the costs of manufactured devices and enlarging the area of the potential high-energy applications. We will show how to increase the $j_c$ and $H_{irr}$ of the YBa$_2$Cu$_3$O$_{7-d}$ superconductor by introduction of the nano-sized Mo$_2$O$_x$ structural defects into the region of the CuO chains. Moreover, by identifying the mechanisms that determine the pinning force of the vortices in these materials, we will reveal what the universal properties should have the defect centers which would effectively pin vortices in strong magnetic fields.
The presentation is a summary of the research conducted by the authors over many years and reports both previously published results for the powder materials [1] and single crystals [2], as well as the recently obtained, partially published in [3]. Due to the significant anisotropy of the structural and superconducting properties of REBaCuO, primarily the study of single crystals should provide the reliable results on the anisotropic properties of critical currents, which are the most important in the field of high-energy applications of high-temperature superconductors.
References:
[1] Rogacki K.; Dabrowski B.; Chmaissem O.; Phys. Rev. B, 73, 2006, 224518.
[2] Los A.; Dabrowski B.; Rogacki K.; Current Applied Physics, 27, 2021, 1-6.
[3] Rogacki K.; Los A.; Dabrowski B.; Low Temperature Physics, 49, 2023, 364–374.
Heusler compounds have many interesting properties and applications related to their particular electronic structure. They are studied for more than century, and the first Heusler material Cu2MnAl astonished researchers by the fact, that it is magnetic despite none of its constituent elements exhibited magnetic ordering. The absolute majority of experimental studies which were published for Heusler compounds is related to X2YZ compositions, where X and Y are 3d metals, and Z are p-block elements like Al, Si, Ga, Ge, As, Sb. Very little is known, about experimental studies of Heusler containing
4d and 5d metals. There are some reports with Zr based Heuslers, but not many of them. Here, we present the properties of Ti2MoAl Heusler compound, a first Heusler compound which contain molybdenum as a main constituent element and not as a dopant. In addition we will present our preliminary results with other 4d and 5d metals, we will also tell why they were not easy to synthesize using common arc melting technique. In addition, we will discuss the possibility of substitution of p-block
element by rare earth metals like La and Ce.
U-TE-Ge compounds exhibit remarkable coexistence of ferromagnetism and superconductivity which attracts attention of the scientific community to study unique physical properties and potential applications in nuclear industry. The orthorhombic crystal structure is characterized by layers with U atoms in zigzag chains. Recently synthesized UNi$_{0.34}$Ge$_2$ is so far the only exception in this family because it orders antiferromagnetically below 45 K and superconductivity has not been observed yet. Highly anisotropic magnetic structure with two easy axes was observed in magnetization, specific heat, thermal expansion [1] and in transport measurements.
Ab initio calculations are challenging in this case because of U-5f electrons near the Fermi level and structural disorder. Usually, strongly interacting U-5f electrons are described with DFT+U approach in which the parameters are chosen to reproduce, for example the experimentally determined magnetic moments or XPS spectrum. In this work we demonstrate that the thermopower, which is frequently much easier to be experimentally determined, is a sensitive probe of electronic correlations which may be successfully used to assess the magnitude of electronic correlations. The electronic structure and thermopower of UNi$_{0.34}$Ge$_2$ was calculated using DFT methods [2,3] and we found that Seebeck coefficient is more sensitive to the choice of Hubbard U and J parameters than e.g. magnetic moments and compared to experiment allows to properly determine their values.
References
[1] A. Pikul et al., Phys. Rev. Materials 6, 104408 (2022).
[2] G. Kresse et al., Phys. Rev. B 54, 11169 (1996).
[3] G. Madsen et al., Comput. Phys. Commun. 231,140-145 (2018)
In this study, we investigate the effect of symmetry breaking induced by uniaxial pressure on the structural properties of stoichiometric magnetite at room temperature. To this end, we present the XRD measurements performed on a single crystal of magnetite under systematically increasing, externally applied uniaxial stress. The uniaxial compression was applied using the commercially available mechanical press manufactured by ADMET.
To accommodate a sample shaped as a rectangular brick of 2.5 mm in length and a cross section of 1 mm2, a custom steel chamber was designed, incorporating two ceramic sample-holding posts (see Fig. 1a). As shown in Fig. 1b, a specimen oriented in the [100] direction was glued to the adapter and subjected to uniaxial compression with the parallel XRD measurement. Analysis of the obtained diffraction pattern enabled the determination of both the lattice parameters and the stress tensor in the laboratory and reference coordinate frames.
As shown in Fig. 1c, uniaxial compression results in a concurrent elongation of the lattice parameter in the [100] and [010] directions, accompanied by a contraction along the [001] direction. Moreover, an applied uniaxial compression of 100 MPa lead to a deviation of the $ \alpha $ lattice angle from 90° by 0.05°.
For each level of applied compression, the corresponding stress tensor was determined in both the laboratory and reference coordinate frames. From these tensors, the Young's modulus was determined, yielding values within the broad range of 60-195 GPa, consistent with the previously reported literature data.
Aminokwasy to jedne z podstawowych jednostek budujących materię ożywioną. Wydawało by się, że są to związki tak często badane, w postaci czystej i w roztworach, że wiemy o nich niemal wszystko. Albo chociaż to, co jest nam potrzebne, dla zastosowań praktycznych. Jednak w dalszym ciągu można znaleźć takie właściwości roztworów aminokwasów, które są szczególne i niezbyt powszechne. Jedną z nich jest aktywność powierzchniowa, określana jako wpływ związku na napięcie powierzchniowe wody. Wiele z prostych aminokwasów o budowie zbliżonej do glicyny podwyższa napięcie powierzchniowe tego rozpuszczalnika, czyli ma zdolność do gromadzenia się w głębi roztworu. To odwrotnie, niż w przypadku typowych surfaktantów. Właściwość ta wynika ze specyficznych oddziaływań pomiędzy cząsteczkami substancji rozpuszczonej i rozpuszczalnika, która w efekcie powoduje zwiększenie napięcia na granicy fazowej z powietrzem. Oddziaływania, w których mogą uczestniczyć aminokwasy są również powodem, dla którego można wykorzystać jako solubilizatory hydrotropowe dla wielu substancji w tym, farmakologicznych. To cenna właściwość, bowiem same aminokwasy, nawet te niebiałkowe, w niewielkich dawkach nie wykazują efektu toksycznego, czyli są akceptowalnym dodatkiem możliwym do spożycia. Wiele właściwości wodnych roztworów aminokwasów zależy od pH, które warunkuje w jakiej formie (najczęściej kationowej, anionowej lub obojnaczej) aminokwas występuje. W niniejszej prezentacji opisana zostanie próba określenia, jak budowa związku (prostego aminokwasu) wpływa m. in. na napięcie powierzchniowe roztworów, nadmiar powierzchniowy Gibbsa, czy liczby hydratacji w wodzie. Drugą kwestią będzie znalezienie reguł, które pozwalają przewidzieć wybrane wielkości fizykochemiczne roztworów bez dokonywania eksperymentu.
Niniejsze badania były możliwe dzięki dofinansowaniu z programu badań naukowych i innowacji Unii Europejskiej Horyzont 2020 (H2020) (umowa nr 101017858)
Zakup aminokwasów wykorzystanych w badaniach został dofinansowany ze środków przyznanych w ramach programu Inicjatywa Doskonałości Badawczej Uniwersytetu Śląskiego (II edycja)
Struktura helikalna stanowi jeden z najbardziej rozpowszechnionych motywów strukturalnych w biologii [1,2]. Układy o strukturze helikalnej stanowią inspirację do projektowania i wykorzystywania grup funkcyjnych w określonych miejscach w przestrzeni trójwymiarowej [1]. W wielu laboratoriach na świecie prowadzone są intensywne badania mające na celu wyjaśnienie, w jaki sposób muszą być ułożone cząsteczki w strukturze krystalicznej, aby tworzyły one strukturę helikalną [3]. Zwraca się uwagę na naturę oddziaływań w krysztale, właściwości fizyczne oraz mechaniczne, w szczególności na anizotropię i odkształcenia sprężyste. Zauważono także występowanie ujemnej rozszerzalności temperaturowej w układzie o helikalnej strukturze z wiązaniami wodorowymi w (S,S)-octa-3,5-diyn-2,7-diolu [4].
Przedmiotem badań jest grupa soli imidazoliowych z aromatycznymi kwasami karboksylowymi [5-6]. Jony w strukturze krystalicznej połączone są wiązaniami wodorowymi N+‒H···O‒, które tworzą strukturę helikalną. Analiza tereftalanu (bis)imidazoliowego wykazała występowanie ujemnej rozszerzalności termicznej [6]. W benzoesanie imidazoliowym pokazano występowanie ujemnej rozszerzalności termicznej oraz ujemnej ściśliwości liniowej [7].
Głównym celem badań jest teoretyczna analiza zachowania się sieci wiązań wodorowych oraz odziaływań międzycząsteczkowych w otrzymanych solach na bazie aromatycznych kwasów karboksylowych oraz cząsteczek heterocyklicznych jak imidazol czy pirazol. W ramach badań prowadzone są obliczenia teoretyczne z wykorzystaniem metod DFT oraz TD-DFT przy wykorzystaniu oprogramowania Gaussian09. Przy pomocy obliczeń DFT przeprowadzono analizę struktury oscylacyjnej. Do określenia rodzaju występujących wiązań wodorowych wykorzystano kwantową teorie atomów w cząsteczkach (QTAiM).
Wyniki otrzymane w ramach analizy numerycznej pozwoliły na głębsze zrozumienie zachowania się sieci wiązań wodorowych (np. O-H···O, N-H···O) oraz oddziaływań międzycząsteczkowych. Analiza ta pozwoli wyjaśnić i opisać przyczyny zachowania anomalnego w badanych układach. Na podstawie prowadzonych obliczeń możliwa będzie interpretacja wyników eksperymentalnych dla grupy badanych związków. Ponadto pozwoli ona na zaproponowanie nowych układów o wymaganych właściwościach fizykochemicznych.
Praca naukowa finansowana ze środków budżetowych na naukę w latach 2020-2023, jako projekt badawczy w ramach programu PRELUDIUM-18 Narodowego Centrum Nauki, nr. rej. 2019/35/N/ST5/03324. Badania zostały przeprowadzone przy wsparciu Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego (ICM UW).
Literatura
[1] C. Y. Tsai, E. O. Salawu, H. Li, G. Y. Lin, T. Y. Kuo, L. Voon, A. Sharma, K. D. Hu, Y. Y. Cheng, S. Sahoo, L. Stuart, C. W. Chen, Y. Y. Chang, Y. L. Lu, S. Ke, C. L. Ortiz, B. S. Fang, C. C. Wu, C. Y. Lan, H. W. Fu, L. W. Yang, Nat. Commun. 13 (2022) 1-14.
[2] Y. Li, Z. Qian, L. Ma, S. Hu, D. Nong, C. Xu, F. Ye, Y. Lu, G. Wei, M. Li, Nat. Commun. 7 (2016) 1-9.
[3] Z. Shahbazi, Am. J. Mech. Eng. 3 (2015) 47-54.
[4] D. Das, T. Jacobs, L. J. Barbour, Nature Mater 9 (2010) 36-39.
[5] S. Zięba, A. T. Dubis, A. K. Gzella, P. Ławniczak, K. Pogorzelec-Glaser, A. Łapiński, Phys. Chem. Chem. Phys. 21 (2019) 17152-17162.
[6] S. Zięba, A. Gzella, A. T. Dubis, A. Łapiński, Cryst. Growth Des. 21 (2021) 3838-3849.
[7] S. Zięba, M. Rusek, A. Katrusiak, A. Gzella, A. T. Dubis, A. Łapiński, Sci. Rep. 13 (2023) 1-11.
Fabuła eksperymentu:
-Teza badawcza: zastosowanie mikroskopii synchrotronowej )transmisyjna mikroskopia fotonowa) pozwala na badanie jakościowe oraz ilościowe tkanki mózgu człowieka na poziomie rozdzielności około atomowej.
-Etapy udowodnienia tezy badawczej:
-Cele metodyczne (metodyka opracowania preparatów oraz przystosowania stacji STXM do zakresu energii reprezentatywnych dla odpowiednich pierwiastków.
-Cele poznawcze (korelacja uzyskanych widm energetycznych z histo oraz cytoarchitekturą badanego obiektu.
-Opracowanie „surowych” wyników.
-Ocena stanu biostruktury po eksperymencie.
-Zaprojektowanie weryfikacji wyników z użyciem metod pokrewnych – STXM + fluorescencja, SIM – TOF.
-Analiza numeryczna wyników oparta na sieci komputerowej.
Materiał:
Materiał do badań stanowiły tkanki mózgu człowieka pobrane w trakcie autopsji wykonanej zgodnie z procedurami obowiązującymi w standardach patomorfologii.
Metoda analizy obiektów – fotonowa mikroskopia transmisyjna (stacja DEMETER Synchrotronu SOLARIS).
Szczyt zakresu energii pomiaru – 420 eV.
Ilość punktów analizowanych na obszarze 5x5 mikrometrów ok 400 zliczeń.
WNIOSKI WSTĘPNE:
Metodyka przygotowania próbek do analizy w parametrach energetycznych stacji STXM cyklotronu Solaris nie spowodowała zaburzeń w biostrukturze obiektów.
Zaobserwowaną obecność azotu można wstępnie korelować jako market molekularny (atomowy) równoległy do ilościowego występowania gleju.
Metoda fotonowej analizy nanostruktury tkanki mózgu człowieka jest narzędziem czułym i swoistym dla oceny parametrów biologicznych, strukturalnych oraz dynamicznych.
Crystallization processes in aqueous solutions are influenced by multiple physicochemical parameters, including temperature, supersaturation, pH, and the presence of various additives. In recent years, increasing attention has been directed toward the role of bacteria in modulating crystal nucleation, growth, and aggregation in both aqueous and other environments. For instance, Bacillus subtilis has been shown [1] to affect calcium oxalate (CaOx) crystallization through mechanisms involving the secretion of extracellular polymeric substances (EPS).
This study investigates the influence of Proteus mirabilis on the crystallization of struvite (MgNH₄PO₄·6H₂O) in artificial urine. Struvite is a well-known component of infection-induced urinary stones, accounting for approximately 10–15% of all uroliths globally, with a rising incidence observed in high socio-demographic index (SDI) regions. The crystallization of struvite is strongly associated with the activity of urease-producing bacteria, predominantly Proteus mirabilis.
Struvite crystals formed in the presence of bacteria exhibit well-developed crystallographic faces, yet display a distinctly porous microstructure. This porosity is not limited to the crystal surface but extends into the crystal volume, representing a hallmark of bacterially influenced struvite. Additionally, bacterial activity alters the morphology and habit of the crystals, resulting in more regular forms compared to those precipitated in sterile conditions. Proteus mirabilis significantly impacts urine pH through urea hydrolysis mediated by the enzyme urease, further modulating the crystallization environment.
Infection urinary stones consist not only of highly crystalline struvite but also of poorly crystalline and amorphous phases, often incorporating bacterial cells within their structure. The aggregation of these phases, along with bacteria, is a critical mechanism underlying the formation of large calculi. Current findings highlight the role of bacterial macromolecules, particularly lipopolysaccharides (LPS), in promoting crystal aggregation.
Conclusion:
Proteus mirabilis actively mediates struvite crystallization and aggregation through its activity, secretion of LPS, and interactions with chemical constituents of urine. These bacteria can serve as nucleation centres and contribute to the recurrence of infection stone formation.
References
1. David N. Azulay, Malachi Fraenkel, and Liraz Chai; A Bacterial Biofilm Polysaccha-ride Affects the Morphology and Structure of Calcium Oxalate Crystals; Crystal Growth & Design 2023 23 (11), 7853-7862 https://doi.org/10.1021/acs.cgd.3c00657
The authors present a paradigm related to the measurement of biological objects, addressing the incoherence between the accuracy of structural analysis and that of function (motion-related events).
Biology, including medicine, studies objects—for example, the human body—on scales ranging from 1;1 (basic medical examination) to 10 -10 m (e.g., microscopy and synchrotron spectroscopy; own results).
The escalation of magnification and resolution in these measurements results in a reduction of observable function, particularly at the molecular level.
A breakthrough discovery of spontaneous photon emission from DNA (own result) represents a deviation from the above-described mechanism, showing the coherence between function and structure at the quantum level.
Datowanie radioizotopowe w oparciu o rozpad promieniotwórczy 210Pb (T1/2 = 22,3 lata) po raz pierwszy wykorzystano w latach 60 XX wieku dla profili lodowych. Obecnie jest to szeroko stosowana metoda służąca do określenia chronologii poniżej 200 lat w warstwach osadów jeziornych, glebowych, morskich czy torfowych. Najczęściej stosowanymi modelami matematycznymi pozwalającymi na estymację wieku w określonych warunkach są: CA (Constant Activity), CRS (Constant Rate of Supply), CF/CS (Constant Flux/Constant Sedimentation) oraz ich ulepszone wersje (np. Plum). Podstawowymi założeniami powyższych modeli jest brak migracji 210Pb w obrębie badanego profilu i niezmienność wybranych parametrów, np. strumienia 210Pb czy tempa sedymentacji. Ponadto niezmiernie istotne jest precyzyjne określenie tzw. frakcji supported (210Pbsup) oraz depozycji cząstkowych i depozycji skumulowanej tzw. frakcji unsupported (210Pbuns). Rzeczywiste rdzenie zazwyczaj wykazują dużą złożoność odzwierciedloną przez fluktuacje zarówno stężenia aktywności 210Pb jak i gęstości objętościowej [1]. Za największe wyzwania uznaje się problem z określeniem aktywności 210Pbsup oraz niedoszacowanie depozycji skumulowanej 210Pbuns. W związku z tym konieczne jest wprowadzenie poprawek do wspomnianych modeli oraz weryfikacja uzyskanych serii wiekowych za pomocą niezależnego markera, np. 14C lub 239+240Pu. Kompleksowy protokół datowania, opracowany w Instytucie Fizyki Jądrowej Polskiej Akademii Nauk, pozwala uzyskać precyzyjne i poprawne chronologie, spójne pomiędzy zastosowanymi modelami oraz zgodne z niezależnymi datami referencyjnymi [2].
References
[1] A. Cwanek et al. “Temporal variability of Pu signatures in a 210Pb-dated Sphagnum peat profile from the Northern Ural, Russian Federation”. In: Chemosphere 281 (2021): 13096.
[2] A. Cwanek et al. “Strengthening potential of recent peat dating”. In: J. Environ. Radioact. 282 (2025): 107594.
Teoria gier kwantowych to interdyscyplinarna dziedzina badań łącząca teorię gier i obliczenia kwantowe. W ostatnich latach prowadzone są liczne badania potencjału rozszerzeń klasycznych gier do wersji kwantowych. Pokazano, że takie podejście może prowadzić do nowych sposobów rozwiązywania problemów decyzyjnych. Jednym z głównych celów teorii gier kwantowych jest rozszerzenie gry o strategie dostępne w dziedzinie kwantowej. Dzięki zastosowaniu tych strategii, gracze, którzy w wersji klasycznej gry nie byli w stanie osiągnąć satysfakcjonujących wyników, mogą kwantowo znaleźć równowagę Nasha bliższą lub równą rozwiązaniom Pareto-optymalnym. W pracy badamy rozszerzenie gier bimacierzowych do dziedziny kwantowej, uzyskane poprzez dodanie jednej strategii unitarnej. Określamy warunki, jakie musi spełniać ta strategia, aby gra była niezmiennicza względem izomorficznych przekształceń gry początkowej. Wykazaliśmy, że istnieją trzy typy takich rozszerzeń, przy tym dwa z nich są czysto kwantowe. Pokazaliśmy również, że wykorzystanie operatora unitarnego, który nie spełnia podanych warunków może prowadzić do gier kwantowych, które nie są równoważne, np. Mają różne zbiory równowag Nasha. Uzyskane wyniki zilustrowaliśmy kwantowym rozszerzeniem gry Dylemat Więźnia.
W tym referacie zostały przedstawione dowody, że model Szczególnej Teorii Względności (STW) opisuje inną rzeczywistość fizyczną niż modele Szczególnej Teorii Eteru (STE) [1]-[5]. Jest to odpowiedź na opinie, że STW jest równoważna wszystkim teoriom z uniwersalnym układem odniesienia, ponieważ synchronizacja zegarów w układach inercjalnych jest sprawą konwencji.
Przedstawione dowody opierają się na pokazaniu eksperymentów myślowych, których przewidywania są inne w ramach STW oraz inne w ramach każdej STE. Eksperymenty te dotyczą takich efektów, których nie można skompensować synchronizacją zegarów.
Łatwo można wykazać, że każda STE jest modelem innej rzeczywistości fizycznej, ponieważ różnią się one skróceniem poprzecznym. To, czy rozpędzone ciało zmieści się w wąskich drzwiach „stodoły” zależy od tego, jakiemu skróceniu poprzecznemu ulega ciało. Efektu skrócenia poprzecznego nie daje się skompensować synchronizacją zegarów. Wynika z tego, że wszystkie STE ze skróceniem poprzecznym opisują inne rzeczywistości fizyczne niż STW.
Kolejne eksperymenty myślowe pokazują, że STE bez skrócenia poprzecznego opisuje inną rzeczywistość fizyczną niż STW. Opierają się na aberracji, dylatacji czasu lub efekcie Dopplera.
Błędna opinia, że STW oraz teorie z uniwersalnym układem odniesienia są równoważne wynika z nieświadomości, że każda teoria fizyczna składa się z matematyki oraz interpretacji tej matematyki. Sama matematyka nie definiuje teorii fizycznej jednoznacznie.
[1] Szostek Karol, Szostek Roman, The existence of a universal frame of reference, in which it propagates light, is still an unresolved problem of physics, Jordan Journal of Physics, 15(5), 2022,
https://journals.yu.edu.jo/jjp/JJPIssues/Vol15No5pdf2022/3.html.
[2] Szostek Karol, Szostek Roman, The derivation of the general form of kinematics with the universal reference system, Results in Physics, 8, 2018, https://doi.org/10.1016/j.rinp.2017.12.053.
[3] Szostek Roman, Derivation of all linear transformations that meet the results of Michelson-Morley’s experiment and discussion of the relativity basics, Moscow University Physics Bulletin, 75(6), 2020,
https://doi.org/10.3103/S0027134920060181, online https://www.researchgate.net/publication/350050565.
[4] Szostek Roman, Explanation of what time in kinematics is and dispelling myths allegedly stemming from the Special Theory of Relativity, Applied Sciences, 12(12), 2022, https://mdpi.com/2076-3417/12/12/6272/htm.
[5] Szostek Karol, Szostek Roman, The concept of a mechanical system for measuring the one-way speed of light, Technical Transactions, 2023/003, 2023, https://doi.org/10.37705/TechTrans/e2023003.
Efekt Mojżesza: przegląd wyników, nowe możliwości badań i gigantyczny efekt w ferrofluidach
Heusler alloys were discovered in the early 20th century. With the beginning of the 21st century, interest of these materials increased due to their interesting properties and possible applications in spintronics and thermos-electric devices. Many Heusler compounds exhibit Half-Metallic Ferromagnetism (HMF) state. Ti2CrAl was predicted by earlier ab-initio calculations 1,2 to be a Heusler compound which is near the HMF state. In our study we performed analysis of two prepared in our laboratory compounds: Ti2CrAl and Ti2MoAl. We successfully synthesized both samples and thoroughly investigated it with several experimental techniques.
We examined the X-ray diffraction pattern considering four structural models, most common one being simple Cu2MnAl- type structure (space group: Fm3̅ m) and inverse Heusler structure of CuHg2 Ti-type (space group: F4̅ 3m). The Heusler alloys can also be viewed as a CsCl-type (space group: Pm3̅ m), superstructure when one lattice site exhibits a complete disorder or a tetragonal type structure (P4 ∕ mmm).
We also measured X-ray Absorption (XAS) and X-ray Photoelectron Spectroscopy (XPS) spectra and performed ab-initio DFT calculations. Heusler compound usually crystallizes in either simple or inverted structure - simple structure of Ti2MoAl and Ti2CrAl was confirmed by XRD and DFT studies. On the surface, a minor contribution from inverted Heusler structure can be deduced from comparison of XPS with DFT calculations.
Solid-liquid triboelectric nanogenerators (S-L TENG) are an emerging solution for harvesting dispersed mechanical energy and converting it to electricity. They could be utilized in the automotive industry as a part of shock absorbers or suspensions. The generation of electrical charge during contact and separation of various materials, along with electrostatic induction, is the main principle of TENG operation. A particularly interesting phenomenon is the intrusion-extrusion of non-wetting liquid inside and outside of a porous structure. Under certain applied pressure, the liquid can penetrate pores and wet the surface inside. Lowering the pressure will cause the release of liquid and dewetting of the hydrophobic surface. The amount of electricity generated by such a work cycle is determined by multiple conditions such as materials composition, pore sizes, pH, and temperature. In case of porous materials, metal-organic frameworks (MOFs) and hydrophobic silica are quite common objects for this study. Their well-developed specific surface expands the contact area between both components, therefore improving energy density and overall efficiency of TENG-based devices. Pure water, as a non-wetting liquid, exhibits low voltage values for triboelectrification. An interesting solution for this issue can be nanofluids, which are colloidal solutions of nanoparticles (NPs), stabilized in a liquid. Conductive nanofluids, containing metallic NPs, are great candidates for liquid components in S-L TENG. They can provide higher charge mobility and better polarization. Structure, size, and composition of nanoparticles can be tuned to achieve higher electrical signals. We propose a triboelectric system based on nanoporous hydrophobic silica and gold nanofluid. Preliminary results show voltage generation during the intrusion and extrusion of nanofluid, and the size of nanoparticles affects the amount of generated power. Utilizing a single electrode setup, the system is fairly convenient for future development and potential applications in shock absorbers.
Europium-based intermetallic compounds and alloys represent a fascinating class of materials, particularly due to the presence of divalent Eu$^{2+}$ ions, which can give rise to a variety of magnetic and thermodynamic phenomena. Among these, the magnetocaloric effect (MCE) has attracted considerable attention, especially for applications in magnetic refrigeration at cryogenic temperatures. Some Eu-bearing compounds are among the most efficient known magnetocaloric materials in the low-temperature regime, making them highly relevant for fundamental studies and potential technological applications. In this study, we focus on the magnetocaloric properties of the antiferromagnetic intermetallic compound EuCu$_2$Sb$_2$, which crystallizes in the tetragonal CaBe$_2$Ge$_2$-type structure (space group $P4/nmm$, no. 129). Structural characterization confirms the high quality of the polycrystalline sample, and magnetization measurements reveal an antiferromagnetic transition at 5.1(1) K. Electrical resistivity data indicate metallic-type electron transport, consistent with the behavior observed in similar Eu-based intermetallic systems. Magnetization isotherms were used to evaluate the magnetocaloric response of EuCu$_2$Sb$_2$. The compound exhibits both normal and inverse magnetocaloric effects, depending on temperature and field conditions. The maximum isothermal magnetic entropy change ($-\Delta S_\mathrm{m}$) for the normal MCE reaches 13.2(1) Jkg$^{-1}$K$^{-1}$ near 6 K under an applied magnetic field change of 5 T. Additionally, the relative cooling power (RCP) is estimated to be 136(8) Jkg$^{-1}$ for the same field variation. Our findings contribute to a deeper understanding of magnetocaloric behavior in Eu-based antiferromagnets and highlight EuCu$_2$Sb$_2$ as a potential candidate for cryogenic cooling technologies.
This study was supported by the National Science Centre (Poland) under grant 2021/41/B/ST3/01141.
W dobie dynamicznego rozwoju odnawialnych źródeł energii coraz częściej mamy do czynienia z nadwyżkami produkcyjnymi, szczególnie w okresach niskiego zapotrzebowania. Skuteczne i elastyczne metody magazynowania energii stają się zatem kluczowym wyzwaniem technologicznym. Jedną z obiecujących koncepcji jest wykorzystanie zjawiska intruzji cieczy niezwilżającej (np. wody) do materiałów porowatych, takich jak matryce metaliczno-organiczne (MOF-y), gdzie energia mechaniczna jest przechowywana w formie pracy objętościowej (pΔV) wykonanej przez układ.
W pracy skupiono się na materiałach ZIF-8, ZIF-71 oraz hybrydowym ZIF-7-8 i przeprowadzono badania in-operando z użyciem rozpraszania neutronów w funkcji ciśnienia (do 100 MPa) na linii D16 w Institut Laue-Langevin (ILL, Grenoble). Dzięki eksperymentom in-operando możliwe było monitorowanie odpowiedzi strukturalnej MOF-ów w czasie rzeczywistym, w tym zmian uporządkowania bliskiego zasięgu (SANS), parametrów sieci krystalicznej (WANS) oraz intensywności refleksów braggowskich, co wskazuje na wnikanie i zatrzymanie D₂O w hydrofobowych klatkach podczas sprężania układu (intruzja) i odwrotny proces podczas rozprężania (ekstruzja).
Szczególnie interesującym odkryciem jest zaobserwowanie ujemnej ściśliwości materiałów oraz braku histerezy w odpowiedzi hybrydowego MOF-u ZIF-7-8, który działa niczym sprężyna molekularna – w przeciwieństwie do wykazującego silną histerezę ZIF-8 pełniącego rolę amortyzatora. Taka kontrola nad charakterystyką cyklu intruzji-ekstruzji stwarza możliwość projektowania materiałów funkcjonalnych do magazynowania i przekształcania energii w sposób selektywny i dostosowany do potrzeb aplikacji.
Uzyskane wyniki dostarczają istotnych danych dotyczących fundamentalnych mechanizmów fizykochemicznych rządzących zachowaniem cieczy w porach, a także znacząco poszerzają naszą wiedzę o możliwościach wykorzystania MOF-ów jako nowatorskich, odwracalnych układów do magazynowania energii. Badania te stanowią ważny krok w kierunku rozwoju zrównoważonych technologii energetycznych przyszłości, gdzie kluczowe będzie nie tylko przechowywanie nadwyżek energii, ale także możliwość ich szybkiego i efektywnego odzysku.
Autorzy pragną podziękować Ministrowi Edukacji i Nauki za decyzję nr 2023/WK/08 o fundowaniu członkowstwa naukowego Polski w ILL, która umożliwiła przedstawione badania.
Załącznik
W pracy zostaną przedstawione wyniki badań doświadczalnych warstw falowodowych. pomiary były prowadzone z wykorzystaniem LED emitującej światło białe i spektrometru światłowodowego. Rejestracja sygnału umożliwia wyznaczenie dyspersji modowej oraz różnicy stałych propagacji
W załączniku PDF lub DOCX
W tej prezentacji zostanie przedstawiony plan badawczy oraz perspektywy nadchodzącej kampanii eksperymentalnej w Środowiskowym Laboratorium Ciężkich Jonów Uniwersytetu Warszawskiego (ŚLCJ UW). Integracja spektrometru promieniowania gamma EAGLE z detektorem jąder odrzutu RFD oraz detektorem lekkich cząstek naładowanych DIAMANT stwarza nowe możliwości prowadzenia w kraju badań struktury zdeformowanych jąder o średnich masach przy wysokich spinach, jak również jąder cięższych wykazujących deformację oktupolową. W prezentacji omówione zostaną także najnowsze rozwiązania techniczne w detekcji ciężkich jonów, zastosowane do istotnej modernizacji detektora RFD. Zintegrowane zastosowanie systemów RFD i DIAMANT znacząco zwiększy czułość układu EAGLE, zwłaszcza w eksperymentach ukierunkowanych na badania jąder egzotycznych przy wysokim spinie.
Polymer fiber-based triboelectric nanogenerators (PF-TENGs) are promising systems due to desirable advantages such as facile, affordable, and eco-friendly production and the ability to integrate into a wide range of applications [1]. But, its complex material network suffers from insufficient charge production due to the surface charge mitigation mechanism, which decreases the electrical output of the devices [2]. Chemical modification of the triboelectric polymer matrix can be utilized to enhance the performance of the PF-TENGs. Herein, we have shown the applications of NPB derivatives as hole transport materials in tribopositive fibers. The application of molecules has led to a structural and topological alteration in the obtained nanofibers that changed the surface features of the fiber films. TENG device parameters before and after HTM treatment have been compared. The results have shown that HTM treatments have improved the instant voltage by 45% and power values by 75%. Under external electrical loads, the increase in the voltage reached 50%, and the recorded maximum value was 598 V. In this regard, the proposed study provides a facile method to manage the electrical output of the fabricated device. It contributes to the material design for integrating organic semiconductors and dielectrics for enhanced energy conversion devices.
Nasze pierwsze obserwacje latem 2023 roku ujawniły intensywny wypływ powietrza ze szczelin silnie spękanych skał węglanowych, klasyfikowanych jako opoki, w wyrobisku u podnóża wzgórza Łysiec na Roztoczu o względnej wysokości 100 m i nachyleniu nawet 40$^{\circ}$. Obserwację potwierdziły pomiary temperatury skał wykonane kamerą termowizyjną Flir E8-XT i wskazujące nawet 4 $^\circ$C w wielu zimnych miejscach skał, gdy temperatura powietrza otoczenia wynosiła około 30 $^{\circ}$C. Przepływ powietrza w szczelinach skalnych latem spowodowany jest konwekcją termiczną z powodu różnicy gęstości chłodnego powietrza wewnętrznego oraz gorącego zewnętrznego i umożliwioną przez odpowiednie ukształtowanie terenu (tzw. efekt topograficzny). Niestety, punkty wpływu powietrza w wyższych partiach wzgórza, którego zbocze pokryte jest cienką warstwą gleby i starych liści z rosnących tam drzew, nie były widoczne.
$~~~~~~~~$ Pomiary jesienne i zimowe, kiedy kierunek cyrkulacji powietrza wewnątrz skały zmieniał się pod wpływem niskiej temperatury zewnętrznej, ujawniły miejsca wypływu powietrza w górnej części zbocza wzgórza: 1) otwory w ziemi po powalonych drzewach (wykrotach) odsłaniające skałę, 2) korzenie drzew naruszające glebę, 3) nory zwierząt. W wylocie jednej z takich nor, prawdopodobnie lisa, zmierzony wypływ powietrza osiągnął 2,5 m/s, a jego temperatura wynosiła 11 $^{\circ}$C.
$~~~~~~~~$ Wiosną, w dwóch dniach wystąpienia przymrozku radiacyjnego z niską temperaturą rano i wysoką przed południem, zmierzyliśmy w tej norze prędkość przepływu powietrza w funkcji czasu i zaobserwowaliśmy zmianę jego kierunku: z początkowego wypływania na wpływanie. W jednym z dni, pomiary ujawniły liczne przypadki gdy powietrze zmieniało chwilowo swój kierunek z wpływu do wnętrza skały/nory na wypływ z niej, potwierdzony pomiarami także jego wilgotności. Wyjaśnieniem zmiany kierunku cyrkulacji może być efekt aerodynamiczny powstawania nadciśnienia od podmuchów wiatru wiejącego na wyrobisko z prędkością osiągającą 6 m/s oraz podciśnienia związanego z opływaniem wzgórza.
$~~~~~~~~$ Analizowana cyrkulacja powietrza jest naturalnym źródłem ciepła zimą i chłodu latem, odpowiednio na szczycie i dole tego typu wzniesień.
W tym referacie wyjaśnione zostało na podstawie Szczególnej Teorii Eteru (STE) [1-4] zjawisko skrócenia Lorentza-Fitzgeralda. Przedstawione wyjaśnienie polega na konstrukcji nowatorskiego technicznego modelu tego zjawiska, a nie jedynie na jego klasycznym matematycznym opisie.
Model wyjaśniający przyczynę skrócenie Lorentza-Fitzgeralda jest oparty na ciśnieniu fotonowym oraz własnościach zegara świetlnego, dlatego nazwaliśmy go modelem ciśnienia fotonowego. W modelu tym wymiary ciał wynikają z równowagi pomiędzy tworzącymi je atomami (Figure 1), a na równowagę tą wpływa ciśnienie fotonowe (czyli oddziaływanie elektromagnetyczne). W Szczególnej Teorii Eteru skróceniu ulegają ciała fizyczne, a nie czasoprzestrzeń. Dlatego przedstawiony model łączy w sobie relatywistykę z uniwersalnym układem odniesienia (STE) oraz fizyki ciała stałego.
Z przedstawionego modelu wynika, w jaki sposób można zmodyfikować eksperyment Michelsona-Morleya, aby był w stanie wykryć ruch względem hipotetycznego eteru. Pomiar skrócenia Lorentza-Fitzgeralda może mieć w przyszłości zastosowanie w nawigacji w lotnictwie oraz w astronautyce, ponieważ pozwoli na określenie kierunku w przestrzeni kosmicznej.
[1] Szostek Roman, Explanation of what time in kinematics is and dispelling myths allegedly stemming from the Special Theory of Relativity, Applied Sciences, 12(12), 2022, https://mdpi.com/2076-3417/12/12/6272/htm.
[2] Szostek Roman, Derivation of all linear transformations that meet the results of Michelson-Morley’s experiment and discussion of the relativity basics, Moscow University Physics Bulletin, 75(6), 2020,
https://doi.org/10.3103/S0027134920060181, online https://www.researchgate.net/publication/350050565.
[3] Szostek Karol, Szostek Roman, The derivation of the general form of kinematics with the universal reference system, Results in Physics, 8, 2018, https://doi.org/10.1016/j.rinp.2017.12.053.
[4] Szostek Roman, The original method of deriving transformations for kinematics with a universal reference system, Jurnal Fizik Malaysia, Vol. 43, Issue 1, 10244-10263, 2022, http://jfm.ifm.org.my/vol_iss/18.
The total concentration of macromolecules in biological environments ranges from approximately 80 g/L in blood plasma to 300 g/L in bacterial cytoplasm. This crowding reduces available volume and introduces nonspecific interactions that can alter solute properties such as diffusion, protein folding, and substrate binding. Despite these effects, most in vitro studies of therapeutic targets are performed under dilute conditions that do not reflect the intracellular environment.
We investigated how crowding affects the activity and structure of the hepatitis C virus NS3/4A protease, a key enzyme in viral replication. To mimic intracellular conditions, we used synthetic crowding agents: linear polyethylene glycol (PEG 2,000 and 4,000) and branched polysaccharide Ficoll 70. Proteolytic activity was determined at 50-200 g/L crowder concentrations using a fluorogenic peptide substrate. NS3/4A structural changes were monitored via Trp-induced intrinsic fluorescence.
PEG reduced NS3/4A activity in a concentration- and size-dependent manner, with PEG 2,000 showing a stronger inhibitory effect than PEG 4,000. At 100 g/L, PEG 2,000 impaired substrate binding, while PEG 4,000 improved it, but both reduced turnover. At 200 g/L, catalytic efficiency decreased by ~30% for both PEGs. In contrast, Ficoll enhanced NS3/4A activity despite impaired substrate binding at 100 and 200 g/L. Turnover increased with concentration, and at 200 g/L, catalytic efficiency nearly doubled.
Both PEG and Ficoll promoted NS3/4A folding, but to different extents. PEG induced folding into a more compact structure with Trp residues buried in the protein hydrophobic core, with PEG 2,000 showing a stronger effect than PEG 4,000. Such folding may restrict enzyme flexibility, thus reducing activity. Ficoll 70 induced only partial folding with moderate reduction in Trp-solvent exposure. This conformation may favor activity relative to the unordered structure in dilute buffer.
Overall, we demonstrated that crowding modulates NS3/4A activity and structure in a crowder-specific manner. Folding changes partly explain activity shifts, but additional effects such as altered diffusion and substrate interactions also contribute. Therefore, incorporating crowding agents into in vitro studies can increase their physiological relevance, supporting the investigation of therapeutic targets and drug development.
Acknowledgements:
We acknowledge support from the National Science Centre, Poland (2022/47/O/NZ1/01933).
References:
1. Minton, A.P. Biopolymers 20, 2093-2120 (1981).
2. Taliani, M. et al. Anal Biochem 240, 60-67 (1996).
3. Popielec, A. et al. Biochimie 176, 169-180 (2020).
4. Ostrowska, N. et al. PLoS Comput Biol 19, e1011054 (2023).
Miękkie promieniowanie rentgenowskie o długości fali w zakresie 1–10 nm, można efektywnie generować, ogniskując nanosekundowe impulsy laserowe o energii rzędu jednego dżula na tarczy gazowej utworzonej przez impulsowe wstrzykiwanie gazu pod wysokim ciśnieniem w obszar ogniska wiązki laserowej. Zastosowanie tarczy gazowej zamiast tarczy stałej pozwala uniknąć szkodliwego wpływu resztek tarczy powstających podczas laserowej ablacji ciała stałego. Źródła miękkiego promieniowania rentgenowskiego oparte na tarczy gazowej znalazły zastosowanie w wielu dziedzinach, w tym w obrazowaniu struktur biologicznych z rozdzielczością nanometrową [1], spektroskopii XAFS metali przejściowych [2] i optycznej tomografii koherencyjnej nanowarstw [3].
Pewnym ograniczeniem tarcz gazowych jest niewielka liczba gazów, które można wykorzystać do wytworzenia plazmy, co ma niekorzystny wpływ na charakterystyki widmowe wytwarzanego miękkiego promieniowania rentgenowskiego. Rozwiązaniem tego problemu może być zastosowanie tarcz gazowych zawierających dodatkowy materiał w postaci mikrometrowych kropelek wytwarzanych z cieczy o różnym składzie pierwiastkowym (tarcze aerozolowe). Tarcze takie można wytwarzać poprzez wtryskiwanie mgły generowanej za pomocą piezoelektrycznego atomizera w obszar ogniska laserowego [4].
W artykule przedstawiono wyniki badań widmowych emisji miękkiego promieniowania rentgenowskiego z tarczy aerozolowej zawierającej jod i cez, napromieniowanej impulsami laserowymi o czasie trwania około 1 ns i energii do 5 J. Tarczę aerozolową, składającą się z mikrokropli o średnicy około 1-2 mikrometrów, wytwarzano z wodnego roztworu jodku cezu (CsJ) za pomocą impulsowego zaworu elektromagnetycznego połączonego z piezoelektrycznym atomizerem. Widma emisyjne promieniowania rentgenowskiego w zakresie długości fal od 2 nm do 12 nm rejestrowano za pomocą spektrometru z siatką transmisyjną wyposażoną w kamerę CCD. Otrzymane dotychczas wyniki wskazują na możliwość zastąpienia w układach źródeł laserowo-plazmowych tarczy gazowej opartej na bardzo drogim ksenonie znacznie tańszymi tarczami aerozolowymi.
Praca wykonana w ramach projektu NCN Nr 2020/39/I/ST7/03194
[1] P. Wachulak et al., Microscopy and Microanalysis, 21, (2015), 1214-1223
[2] T. Fok et al., Materials, 14, (2021), 7337
[3] P. Wachulak et al., Scientific Reports, 8, (2018), 8494
[4] Ł. Węgrzyński et al., Physics of Plasmas, 27, (2020), 073102
Radioterapia z wykorzystaniem wiązki protonów zyskuje coraz większą popularność. Główną jej zaletą jest możliwość zdeponowania wysokiej dawki w obszarze nowotworu przy jednoczesnym oszczędzeniu tkanek położonych przed i za zmianą chorobową. Wiąże się ona również z nowymi wyzwaniami. Jednym z nich jest promieniowanie wtórne powstające w ciele pacjenta w wyniku oddziaływań jądrowych. Poza zmniejszeniem liczby protonów docierających do obszaru nowotworu, skutkuje ono depozycją dodatkowej dawki. W wyniku reakcji protonów z jądrami pierwiastków tworzących tkanki mogą być emitowane neutrony oraz cząstki naładowane (protony, cząstki alfa), jednak szczególny potencjał mają powstające izotopy, które rozpadają się na drodze przemiany β+. Produktem tego rozpadu jest pozyton, który po zatrzymaniu się (zasięg rzędu mm) anihiluje z elektronem, emitując przy tym dwa przeciwbieżne kwanty gamma. Zjawisko to jest podstawą obrazowania w pozytonowej tomografii emisyjnej, a w kontekście protonoterapii można je wykorzystać do weryfikacji zasięgu wiązki.
Celem prowadzonych badań jest analiza aktywności β+promieniotwórczych izotopów, powstających podczas napromieniania tkanek zwierzęcych wiązką protonów. W ostatnich kilku latach wykonano szereg eksperymentów na akceleratorze AIC-144 (IFJ PAN, Kraków) z wykorzystaniem wiązki protonów o energii 58 MeV. Oprócz tarcz pierwiastkowych zawierających C, N i O, napromieniano również tarcze przygotowane ze spreparowanych tkanek zwierzęcych (wołowa kość, wieprzowe serce, nerka i wątroba). Dane zbierano za pomocą układu detekcyjnego zaprojektowanego i wykonanego specjalnie w tym celu na Wydziale Fizyki Uniwersytetu Warszawskiego. Na podstawie krzywych zaniku zidentyfikowano radioizotopy tlenu-15, azotu-13 i węgla-11 oraz wyznaczono ich aktywności po końcu napromieniania tarcz.
Pulse Shape Discrimination for alpha background reduction in LEGEND
A. Biondi, G. Zuzel
*) M. Smoluchowski Institute of Physics, Jagiellonian University, Krakow, Poland
Neutrinos are yet one of the most important open questions of modern particle physics. Their oscillations proved that they have mass thus, we have to deal with physics beyond the Standard Model. However, the mass and nature of neutrinos is still unknown. Observation of the Neutrinoless Double Beta Decay (0νββ) would clarify whether neutrinos are Majorana Particles, i.e. their own antiparticles, and would prove Lepton Number Violation (ΔL = 2), opening the path to theories such as Leptogenesis that could explain matter-antimatter asymmetry.
The LEGEND (Large Enriched Germanium Experiment for Neutrinoless ββ Decay) experiment, located in Laboratori Nazionali del Gran Sasso, aims to investigate 0νββ using germanium detectors enriched is $^{76}$Ge. The goal of LEGEND is to prove half-life of 0νββ in $^{76}$Ge up to 10$^{28}$ yr, covering the full inverted hierarchy. To do so, LEGEND requires an extremely low background index (BI) of 0.025 counts/(keV t yr).
Pulse Shape Discrimination (PSD) is the analysis of the time profile of the charge produced by the detector. It has been widely used to distinguish between single charge deposition (signal-like) and multiple charge depositions (background-like), and was one of the core point of the success of experiments as GERDA and MAJORANA DEMONSTRATOR. However, to reach the BI aim of LEGEND it is necessary to extend its application, especially for identification of background events induced by alpha decays (main background source in GERDA).
A wide measure campaign was performed at Marian Smoluchowski Institute of Physics utilising a $^{210}$Po source placed on the p+ contact of a BEGe-like detector, collecting O(10$^6$) alpha events. PSD algorithms are being developed to identify and reject alpha surface events in germanium detectors, improving known techniques and designing Machine Learning based novel algorithms. The measure campaign and the performed analysis will be presented. Future prospects in alpha rejection for LEGEND will be also outlined.
Laser-based colloid synthesis has emerged as a powerful and versatile technique in nanoscience, offering a clean, surfactant-free route to the production of functional nanomaterials [1,2]. This approach is gaining increasing attention due to its wide application in energy, catalysis, photonics, and biomedicine. In particular, composite nanoparticles—comprising combinations of metals and metal oxides—generate great interest. Their unique physicochemical properties arise from nanoscale interactions and can be fine-tuned by controlling parameters such as composition, morphology, and structural architecture.
Our research focused on the laser fabrication of metal/metal oxides composite particles under varying conditions of laser fluence, irradiation time, precursor material, and solvent environment. We investigated the mechanisms underlying their formation, the interplay between processing parameters and particle structure/composition, and how these factors affected key properties. The electrocatalytic and antibacterial properties of the obtained composites were investigated, highlighting their potential for applications in energy conversion and antimicrobial technologies [3-5].
References
[1] D. Zhang, B. Gökce, S Barcikowski “Laser Synthesis and Processing of Colloids: Fundamentals and Applications” Chem. Rev., 117 (2017) 3990–4103.
[2] V. Amendola, D. Amans, Y. Ishikawa, N. Koshizaki, S.Scirè, G. Compagnini, S. Reichenberger, S. Barcikowski “Room-Temperature Laser Synthesis in Liquid of Oxide, Metal‐Oxide Core‐Shells, and Doped Oxide Nanoparticles” Chem. Eur. J. 42 (2020) 9206.
[3] M. S. Shakeri, O. Polit, B. Grabowska-Polanowska, A. Pyatenko, K. Suchanek, M. Dulski, J. Gurgul, Z. Swiatkowska-Warkocka “Solvent-particles interactions during composite particles formation by pulsed laser melting of α-Fe2O3” Sci. Rep.12 (2022) 11950.
[4] M.S. Shakeri, Ż. Świątkowska-Warkocka, O. Polit, J. Depciuch, M. Mitura-Nowak et al. “Alternative Local Melting-Solidification of Suspended Nanoparticles for Heterostructure Formation Enabled by Pulsed Laser Irradiation” Adv. Funct. Mater. 33 (2023) 2304359
[5] M. S. Shakeri, O. Polit, T. Itina, J. Gurgul, J. Depciuch, M. Parlinska-Wojtan, T.R. Tarnawski, A. Dziedzic, O. Adamczyk, N. Koshizaki, S. Sakaki, M. Zając, K. Matlak, Z. Swiatkowska-Warkocka “Pulsed laser engineering of composite submicron particles in colloidal systems: A high-performance catalyst for ethanol fuel cells” Composites Part B: Engineering 299 (2025) 112457
I will present our recent results on quantum critical behavior in hybrid nanoscale systems, such as quantum dots and molecules, coupled to normal and superconducting electrodes. In such systems, the ground state is conditioned by the competition between the Kondo screening and superconducting proximity effect, giving rise to rich phase diagrams. For single quantum dots, the phase transition occurs between the BCS and Kondo phases, accompanied by a characteristic behavior of the correlation cloud [1]. On the other hand, double quantum dot systems turn out to be convenient platforms for the realization of the so-called Andreev molecules, characterized by competing singlet, doublet and triplet phases [2]. Furthermore, quadruple quantum dots enable the exploration of the Nagaoka ferromagnetism and, when attached to superconducting contacts, allow for studies of the interplay between ferromagnetism and proximity effect [3]. In addition to the static properties of the considered systems, we also shed light on the dynamical behavior, in particular, exploring the dynamical quantum phase transitions, i.e. phase transitions which emerge in time evolution following an abrupt change of the system parameters [4]. Our considerations are performed using the state-of-the-art numerical renormalization group methods, which allow for accurate non-perturbative examinations of correlation effects in the considered hybrid systems. Our results provide thus an important insight into the physics of hybrid nanostructures, relevant among others for the implementation of quantum bits and Kitaev chains based on quantum dots.
References
[1] C. P. Moca, I. Weymann, M. A. Werner, and G. Zaránd, Kondo Cloud in a Superconductor, Phys. Rev. Lett. 127, 186804 (2021); A. Manaparambil, C. P. Moca, G. Zaránd, and I. Weymann, Underscreened Kondo compensation in a superconductor, Phys. Rev. B 111, 235433 (2025).
[2] P. Zalom, K. Wrześniewski, T. Novotný, and I. Weymann, Double quantum dot Andreev molecules: Phase diagrams and critical evaluation of effective models, Phys. Rev. B 110, 134506 (2024).
[3] E. Siuda and I. Weymann, Competition between Nagaoka ferromagnetism and superconducting pairing in hybrid quantum dots, Sci Rep 15, 25349 (2025).
[4] K. Wrześniewski, I. Weymann, N. Sedlmayr, and T. Domański, Dynamical quantum phase transitions in a mesoscopic superconducting system, Phys. Rev. B 105, 094514 (2022).
Patrz PDF
W załączniku
High-temperature superconductors YBa2Cu3O7-d of the 123-type are important for applications at liquid nitrogen temperatures (77 K) where they show zero resistance to the direct current. They exhibit high values of the critical current densities, jc, and irreversibility fields, Hirr, and are unique for use in magnetic fields above several Tesla. By studying the polycrystalline and single-crystals of Mo-substituted YBa2Cu3O7-d superconductors when the Mo is exclusively placed in the CuO chains region of the structure we have shown that the density of critical currents can be significantly increased by the extended defects made of the coupled MoO6 octahedra that produce local disturbance with the size similar to the coherence length [1,2]. Our results demonstrated promising results for enhanced critical currents density in crystals annealed under high pressure oxygen by 2-3 times at temperatures 4-40 K in B = 1-14 T, and by ~10 times at 60-80 K and B = 1-4 T [3]. However, the synthesis conditions, which are required to keep the Mo away from the CuO2 planes and to tune the optimum oxygen content, were too complex for use of these materials for applications, for example in thermonuclear fusion. We will summarize our recent efforts intended to simplify the synthesis, increase the superconducting Tc as well as to achieve higher values of critical currents and irreversibility fields. This work involved additional substitutions with the small size cations for Cu and the use of larger Rare Earth’s for Y.
[1] K. Rogacki, B. Dabrowski, O. Chmaissem, and J. D. Jorgensen, PRB 63 (2000) 054501.
[2] K. Rogacki, B. Dabrowski, and O. Chmaissem, PRB 73 (2006) 224518.
[3] K. Rogacki, A. Los, and B. Dabrowski, Low Temp. Phys. 49 (2023) 1.
Phase separation underlies the formation of biomolecular condensates such as stress granules and nucleoli. Constructing a temperature–density-dependent phase diagram is essential for identifying the conditions that enable their formation. To this end, we investigated van der Waals fluids using molecular dynamics simulations and developed different complementary approaches: based on clustering analysis, and on thermodynamic observables such as specific heat and surface tension.
By applying the SPACEBALL algorithm to calculate cluster volumes and densities, we extracted binodal and spinodal lines across a wide range of temperatures and densities. Our results yield a consistent critical temperature (T* ≈ 1.31) and show strong agreement with theoretical expectations.
These methods offer a practical framework for mapping phase behavior in systems lacking a defined equation of state, providing valuable tools for studying liquid-liquid phase separation in protein solutions, including those associated with neurodegenerative diseases.
References
We investigate exclusive dilepton production in proton-proton colli-
sions at the Large Hadron Collider (LHC) via two-photon interactions
as a means to probe the internal structure of the proton, particularly its
electromagnetic charge radius. Our theoretical framework enables calcu-
lations in both momentum space and impact parameter space, providing
control over the collision geometry and access to a wide kinematic range.
By comparing model predictions using dipole and Gaussian electromag-
netic form factors with experimental cross-section data at center-of-mass
energies of 7 TeV and 13 TeV, we assess the model’s ability to describe
photon-photon interaction processes. The results show that the dipole
form factor offers a better agreement with the data, providing valuable
insights into the spatial charge distribution within the proton. Also, the
impact parameter space approach provide full geometrical control over
the collision, then the process is purely QED, it enables a precise deter-
mination of the proton radius.
Research on highly correlated systems is a key trend in physics. The RE₃Ni₅Al₁₉ series has been the subject of intensive research on the physical properties of actinides (RE = U and Th) and lanthanides (RE = Sm and Yb). It has been shown that U₃Ni₅Al₁₉ is a heavy-fermion antiferromagnet with TN = 23 K and exhibits non-Fermi liquid behavior below 5 K under ambient pressure [1]. The unusual and interesting behavior of known RE₃Ni₅Al₁₉ compounds has recently inspired research on other RE atoms in this structure, which may lead to the discovery of new materials with unusual properties. Further research may contribute to a better understanding of the magnetic properties and their complexity in this series of compounds.
We present temperature-dependent spectroscopic studies of the electronic structure and magnetic behavior of monocrystalline intermetallic compounds RE₃Ni₅Al₁₉ synthesized via the Al self-flux method. These compounds exhibit complex magnetic behavior with multiple phase transitions (three for both Gd₃Ni₅Al₁₉ and Tb₃Ni₅Al₁₉), suggesting strong interplay between electronic structure and magnetism [2]. Using high-resolution X-ray photoelectron spectroscopy (XPS) and resonant photoemission spectroscopy (ResPES) at photon energies corresponding to the M-edges of RE and the L-edge of Ni, we investigate the temperature-induced changes in the partial density of electronic states in the valence band. Measurements are performed both at room temperature and in the low-temperature regime, above and below the observed phase transition points (25 K and 21 K for Gd₃Ni₅Al₁₉; 32 K, 29 K, and 20 K for Tb₃Ni₅Al₁₉). The goal is to distinguish the individual electronic contributions of Ni and rare-earth atoms to the valence band near the Fermi level, and to correlate these with the magnetic ordering processes occurring at different temperatures.
Acknowledgements: The research activities co-financed by the funds granted under the Research Excellence Initiative of the University of Silesia in Katowice
References
[1] E. D. Bauer, V. A. Sidorov, S. Bobev, D. J. Mixson, J. D. Thompson, J. L. Sarrao, M. F. Hundley, Phys. Rev. B 2005, 71, 014419.
[2] Z. Ryżyńska, M. Marshall, W. Xie, T. Klimczuk, M. J. Winiarski, Cryst. Res. Technol. 2023, 58, 2200170.
_Authors: Adam Czempik1, Anna Bajorek1, Barbara Liszka1, Fabien Grasset2,3, Krystian Prusik1, Joanna Klimontko1, Mateusz Dulski 1, Marcin Fijałkowski1, Jerzy Kubacki1, Ewa Partyka-Jankowska4, Tomasz Sobol4, Marcin Zając4, Magdalena Szczepanik4, Edyta Beyer4, Barbara Wolanin4, Sabina Lewińska5 Sandy Auguste6, Anthony Rousseau6, Nirina Randrianantoandro6_
1 University of Silesia in Katowice, Katowice, Poland
2 Université de Rennes, Rennes, France
3 National Institute for Materials Science, Tsukuba, Japan
4 SOLARIS National Synchrotron Radiation Centre, Kraków, Poland
5 The Institute of Physics of the Polish Academy of Sciences
6 Le Mans Université, Le Mans, France
Corresponding Author: adam.czempik@us.edu.pl
Ferrite nanoparticles are promising materials for biomedical applications, including magnetic hyperthermia in cancer treatment. The nanoparticles can be embedded in silica to enhance their biocompatibility and chemical stability. Depending on the process and conditions used, nanocomposites of varied morphologies – and consequently, diverse magnetic properties – can be obtained [1,2].
In our research, we employed diffraction, microscopic, and spectroscopic techniques – including synchrotron-based methods – to investigate how the synthesis parameters, elemental composition, and annealing conditions influence the structural, electronic, and magnetic properties of the obtained nanocomposites.
By advancing the understanding of magnetic nanocomposites, our results may contribute to the development of more efficient materials for magnetic hyperthermia.
[1] A. Czempik et al. “Unraveling the effect of annealing on the structural and microstructural evolution of NiFe2O4@SiO2 core-shell type nanocomposites”. In: Ceramics International 50 (2024), p. 20473-20494. DOI: https://doi.org/10.1016/j.ceramint.2024.03.170.
[2] Y. Ichiyanagi et al. “Magnetic properties of Ni-Zn ferrite nanoparticles”. In: phys. stat. sol. C 1 (2004), p. 3485-3488. DOI: https://doi.org/10.1002/pssc.200405487.
W 1926 roku A. S. Eddington w książce „The Internal Constitution of the Stars” [1] napisał, że “The density at the center [of star] is zero, the mass being driven away by the intense radiation pressure”. Nie skonstruował On jednakże modelu, w którym gęstość masy ρ w centrum gwiazdy spełniałaby warunek ρ(0) = 0. W niniejszej prezentacji, w oparciu o to założenie, przedstawiony będzie model Słońca, w którym w centrum istnieje tylko ciśnienie promieniowania elektromagnetycznego. Model opiera się na rozwiązaniu układu pięciu równań: równania na równowagę hydrostatyczną, równania masy, równania radiacyjnego transportu energii, równania produkcji energii jądrowej oraz równania stanu. Wykorzystując obserwowane parametry (właściwości) Słońca, model pozwala wyliczyć wartości ciśnienia P(0) i temperatury T(0) oraz moc produkowanej energii jądrowej, równą obserwowanej mocy Słońca L_ʘ=3,486∙〖10〗^(26 ) W. Energię jądrową obliczono z wykorzystaniem równania opisującego dwa cykle: pp i CNO, przedstawione przez M. Schwarshilda w książce „Structure and evolution of the stars” [2]. Opracowany model, dowodzący słuszności założenia Eddingtona, zostanie porównany z modelem standardowym.
Literatura:
[1] A. S. Eddington, ”The Internal Constitution of the Stars”, Cambridge 1926, (University of
Chicago Press; reprinted by Dover Publications, Inc., 1967); str. 125
[2] M. Schwarzschild, ”Structure and evolution of the stars”, Dover Publications, Inc., New York, 1958; str. 81
W badaniach nad otrzymywaniem energii z fuzji jądrowej najszerzej stosowane są urządzenia do magnetycznego uwięzienia plazmy – tokamaki i stellaratory. W urządzeniach tych, do komory w której panuje wysoka próżnia wprowadzana jest niewielka (ok. jednego grama) ilość wodoru w eksperymentach badawczych lub jego izotopów (deuteru lub mieszaniny deuter-tryt) będącego paliwem [1]. Następnie gaz jest podgrzewany (np. za pomocą mikrofal) do temperatury kilku milionów kelvinów, w której jest w stanie plazmy. W urządzeniach tego typu skład plazmy jest kluczowy dla stabilnego, efektywnego i bezpiecznego funkcjonowania reaktora. Oprócz paliwa znajdują się w niej zanieczyszczenia oraz celowo wprowadzane w różnych eksperymentach domieszki [1,2,4]. Obecność zanieczyszczeń jest niekorzystna; powoduje zwiększenie strat, „rozrzedza” paliwo, wpływa na stabilność utrzymania plazmy i utrudnia przeprowadzanie części eksperymentów [2,4]. Dlatego też konieczne jest ciągłe monitorowanie i badanie zanieczyszczeń za pomocą dostępnych metod.
Zanieczyszczenia w plazmie pojawiają się z wielu przyczyn. Mogą wynikać one z oddziaływania plazmy ze ścianami komory plazmowej na skutek erozji ścian podczas kontaktu plazma-ściana. Innym powodem może być uwalnianie ze ściany zaadsorbowanych na jej powierzchni składników powietrza (głównie O$_2$, H$_2$O, CO$_2$), które uwalniają się po osiągnięciu stanu próżni w komorze [4]. Jedną z metod badania zanieczyszczeń plazmy jest spektroskopia optyczna polegająca na obserwowaniu widma promieniowania z zakresu widzialnego i ultrafioletowego, emitowanego przez plazmę [3]. Zależnie od miejsca rejestracji obserwowane są różne rodzaje widm dostarczające innych informacji. Widma molekularne, obserwowane w obszarze przy ścianach komory, dostarczają informacji o jej erozji i naturze oddziaływań plazma-ściana. W okolicy centrum natomiast rejestrowane są widma jonowe, wykorzystywane do identyfikacji składników plazmy oraz ich koncentracji i transportu[3,2,4].
W pracy przedstawiono przykłady zastosowania metod spektroskopowych, przykładowe widma oraz wyniki analizy danych pomiarowych dla tokamaka WEST oraz stellaratora Wendelstein 7-X.
Detektory ATLAS Forward Proton (AFP), stanowiące część eksperymentu ATLAS przy Wielkim Zderzaczu Hadronów (LHC), umożliwiają rejestrację protonów rozproszonych pod bardzo małymi kątami. Dzięki nim możliwe jest badanie procesów dyfrakcyjnych oraz innych rzadkich zjawisk zachodzących w oddziaływaniach proton–proton. Na plakacie przedstawiono sposób wykorzystania takich procesów do kalibracji detektorów AFP. Szczególną uwagę poświęcono procedurze wyznaczania położenia detektorów, co jest kluczowe dla prawidłowej rekonstrukcji zarejestrowanych przypadków. Prezentowane wyniki obejmują rozkłady różnicy pomiędzy zmierzoną pozycją protonu zarejestrowanego przez detektory AFP a pozycją przewidywaną na podstawie pomiarów z innych systemów eksperymentu ATLAS. Taka analiza umożliwia ocenę dokładności zastosowanej kalibracji i stanowi podstawę do jej poprawienia.
Generatory Monte Carlo (MC) są niezastąpionymi narzędziami w fizyce wysokich energii, a ich rola jest kluczowa zarówno w eksperymentach na Wielkim Zderzaczu Hadronów (LHC) jak i w planowanych zderzaczach e+e-. W obu scenariuszach, ciągły rozwój algorytmów, uwzględnianie wyższych rzędów perturbacyjnych i integracja z postępami w technikach uczenia maszynowego (np. dla procesu hadronizacji) są niezbędne do maksymalizacji potencjału naukowego eksperymentów.
Prezentacja omówi aktualny stan i przyszłe kierunki rozwoju generatorów MC, podkreślając ich fundamentalne znaczenie dla interpretacji danych, projektowania przyszłych eksperymentów i odkryć w fizyce cząstek.
Świat i opinia publiczna ekscytują się możliwościami sztucznej inteligencji (SI/AI), szczególnie w kontekście dokonań modeli generatywnych (GenAI). Nie każdy jednak zdaje sobie sprawę, jaką rolę odegrała fizyka w powstawaniu podwalin tych metod, o czym wydatnie przekonaliśmy się, gdy ogłoszone zostały Nagrody Nobla w 2024 r. W trakcie swojego referatu chciałbym przybliżyć początki związane ze stworzeniem pierwszych sieci neuronowych, a następnie wskazać na przykładzie PINN (physics informed neural networks) jak fizyka wspomaga AI obecnie. Ponadto rozważę także pytanie odwrotne: "Jak AI może być pomocne fizykom?". Na koniec wskażę ryzyka, wynikajace z bezrefleksyjnego stosowania sztucznej inteligencji w mediach społecznościowych i postaram się przekonać słuchaczy, że fizyka układów złożonych może być remedium na te zgrożenia.
Organiczne i nieorganiczne perowskity metalohalogenkowe w ostatniej dekadzie wzbudziły ogromne nadzieje jako materiały przyszłości do pozyskiwania energii czy emisji światła. Unikalna synergia miękkiej sieci krystalicznej i właściwości optoelektronicznych jest często wskazywana jako wyjaśnienie wyjątkowych cech tych materiałów. Jednocześnie, ta wyjątkowa synergia tworzy fascynujące pole do badań fizyki ekscytonów, co stanowi wyzwanie dla naszego zrozumienia tych elementarnych wzbudzeń.
Miękka, jonowa sieć krystaliczna perowskitów łączy w sobie cechy ciała stałego, cieczy i szkła, tworząc złożone tło dla wzbudzeń elektronowych, w którym nie można pominąć efektów polaronowych. Prowadzi to do nietypowych reakcji na światło i otwiera nowe drogi dla inżynierii półprzewodników. W tej dyskusji omówię wybrane aspekty fizyki ekscytonów w perowskitach objętościowych i ich pochodnych, takich jak perowskity 2D, które czynią te materiały tak wyjątkowymi.
W pierwszej kolejności zademonstruję, jak pozornie trywialny problem wyznaczenia energii wiązania ekscytonu stał się wyzwaniem w przypadku perowskitów metalohalogenkowych. Następnie omówię kontrowersje związane ze strukturą subtelną ekscytonów, szczególnie w kontekście ich niezwykłej wydajności w emisji światła. Pokażę również, jak można wykorzystać miękką naturę perowskitów do kontroli ich fundamentalnych właściwości.
Chloride transport is an essential process maintaining ion balance across cell membranes, cell growth, and neuronal action potentials. However, the molecular mechanism of the transport remains elusive. Among chloride transporters, light-driven rhodopsins have gained attention as optogenetic tools to manipulate neuronal signaling. We combined time-resolved serial crystallography (SwissFEL and SLS synchrotron) to provide a comprehensive view of chloride-pumping rhodopsin's structural dynamics and molecular mechanism throughout the transport cycle from 10 ps to 50 ms [1]. We traced transient anion binding sites, obtained evidence for the mechanism of light energy utilization in transport, and identified steric and electrostatic molecular gates ensuring unidirectional transport. These structural insights provided the basis for mutagenesis and functional study of the mechanistic features enabling finely controlled chloride transport across the cell membrane.
Furthermore, I will present insights into the photochemistry and selectivity of retinal isomerization in proton-pumping rhodopsin [2] and show that, in favorable cases, even larger structural changes can be captured in crystals [3].
Our recent study of a distinct photoreceptor, Light-Oxygen-Voltage (LOV) domain, will be introduced [4,5]. The first insights into the structural dynamics of LOV photoactivation will be presented, providing the basis for proposing a molecular mechanism of a covalent thioether bond formation between a flavin mononucleotide cofactor and a reactive cysteine, Cys57 (unpublished).
References
1. Mous, S. et al. Science 375 (2022) 845.
2. Nogly P et al., Science 361 (2018), eaat0094.
3. Weinert et. al., Science 365 (2019), 61.
4. Gotthard et al. IUCrJ (2024), 749.
5. Gotthard et al. IUCrJ (2024), 792.
Alga polarna Pediastrum orientale, wyizolowana z jeziora Reindeer położonego na Spitsbergenie stanowi interesujący model organizmu zdolnego do przetrwania w ekstremalnych warunkach środowiskowych, zwłaszcza w niskich temperaturach i przy ograniczonym dostępie do światła słonecznego. W ramach badań wykonanych w laboratorium Katedry Biofizyki Uniwersytetu M. Curie-Skłodowskiej przeprowadzono wieloaspektową analizę biofizyczną celem identyfikacji molekularnych mechanizmów adaptacyjnych wykorzystywanych przez ten gatunek w warunkach stresu abiotycznego. Szczególną uwagę poświęcono funkcjom jakie pełnią występujące tam grupy barwników. Zastosowanie metod spektroskopowych i mikroskopowych (w tym rozpraszania ramanowskiego i czasowo-rozdzielczego obrazowania fluorescencyjnego) pozwoliło na precyzyjne lokalizowanie poszczególnych barwników w strukturach komórek P. orientale.
Wykazano, że cząsteczki polienów gromadzone są w wyjątkowo wysokich stężeniach w ścianach komórkowych. Sugeruje to nie tylko ich udział w fotoprotekcji, ale również zupełnie nową funkcję: konwersję energii świetlnej w energię cieplną. Taki mechanizm termoregulacyjny wydaje się kluczowy w środowisku, gdzie temperatury przez większą część roku spadają znacznie poniżej zera. Lokalnie wytworzone ciepło może umożliwiać zachowanie aktywności metabolicznej i efektywne prowadzenie reakcji fotosyntezy, co stanowi istotną strategię przetrwania w warunkach długotrwałego zimowego zaciemnienia i silnego stresu termicznego.
Co więcej, wyniki badań wskazują, że cząsteczki polienów mogą odgrywać także rolę strukturalną – mechanicznie wzmacniającą kolonie glonów poprzez łączenie sąsiadujących ścian komórkowych. Taka funkcja wspomaga stabilność kolonii w zmiennym środowisku wodnym, przeciwdziałając jej dezintegracji pod wpływem lodu i innych czynników fizycznych. Co szczególnie interesujące, ślady obecności Pediastrum orientale wraz z zachowaną strukturą komórkową i pozostałościami polienów zaobserwowano w osadach jeziornych datowanych na ponad 8 000 lat, co świadczy o długotrwałej skuteczności tych mechanizmów adaptacyjnych.
Współczesna medycyna coraz wyraźniej zmierza w kierunku personalizacji diagnostyki i terapii, wymagając nie tylko precyzyjnej identyfikacji choroby, lecz również zrozumienia jej biologii na poziomie molekularnym i metabolicznym. Równie istotne staje się prognozowanie jej przebiegu, obejmujące ocenę ciężkości, dynamiki oraz indywidualnego ryzyka wystąpienia niekorzystnych zdarzeń klinicznych. W tym kontekście kluczowe stają się narzędzia umożliwiające wgląd w głębokie warstwy funkcjonowania tkanek, komórek oraz składników krwi, w tym erytrocytów i krążących egzosomów, z uwzględnieniem ich stanu metabolicznego, takie jak spektroskopia fluorescencyjna. W naszym ośrodku rozwijamy zaawansowane technologie diagnostyczne nowej generacji, oparte na spektroskopii fluorescencyjnej czasowo-rozdzielczej (TRFS) oraz mikroskopii obrazowania czasu życia fluorescencji (FLIM), a w kolejnych etapach planujemy zintegrować te metody z algorytmami sztucznej inteligencji. Te precyzyjne narzędzia umożliwiają uchwycenie dynamicznych zmian biochemicznych w czasie bliskim rzeczywistemu, zarówno w komórkach, jak i w składnikach krwi. Ich wyjątkowość polega na zdolności do rejestrowania sygnałów pochodzących z fluoroforów endogennych, takich jak protoporfiryna IX, koenzymy NADH i FAD, produkty degradacji kolagenu oraz białka osoczowe zawierające tryptofan, w tym albumina. Emisja tych biomolekuł stanowi czuły wskaźnik fizjologicznego stanu komórek, reagując na kluczowe procesy patofizjologiczne, takie jak stres oksydacyjny, zaburzenia mitochondrialne, przebudowa macierzy zewnątrzkomórkowej oraz nieprawidłowości w biosyntezie hemu i transporcie tlenu. W oparciu o analizę fluorescencji czasowo-rozdzielczej udało się nam opracować innowacyjne wskaźniki prognostyczne, pozwalające na ocenę ryzyka śmiertelności u pacjentów z pozaszpitalnym zapaleniem płuc o różnorodnej etiologii – zarówno bakteryjnej, jak i wirusowej (w tym SARS-CoV-2). Zgodnie z wytycznymi Światowej Organizacji Zdrowia (WHO), pacjenci należący do grupy wysokiego ryzyka mogą odnieść istotne korzyści z intensyfikacji leczenia wspomagającego, obejmującej nie tylko farmakoterapię immunomodulującą, taką jak profilaktyczne zastosowanie glikokortykosteroidów, lecz także tlenoterapię o wysokim przepływie oraz wczesne wdrożenie wentylacji mechanicznej. Z kolei osoby o niskim profilu ryzyka mogą uniknąć zbędnych procedur diagnostycznych i interwencji terapeutycznych, co pozwala zminimalizować narażenie na działania niepożądane oraz zoptymalizować wykorzystanie zasobów klinicznych. W ramach prowadzonych badań opracowaliśmy nieinwazyjną metodę oceny ostrego stanu zapalnego na podstawie jednej kropli krwi, wykorzystując technikę TRFS. Skuteczność tej metody została potwierdzona w badaniach klinicznych, w których wykazano jej korelację z markerami stanu zapalnego, parametrami zaburzeń krzepnięcia oraz wskaźnikami uszkodzenia narządowego. Technika ta może znaleźć zastosowanie nie tylko w diagnostyce zapaleń płuc, lecz również jako narzędzie przesiewowe i monitorujące w sepsie, gdzie wczesna identyfikacja pacjentów wysokiego ryzyka jest kluczowa dla rokowania i personalizacji decyzji terapeutycznych. Z kolei technika FLIM w naszych badaniach służy do analizy próbek tkanek pobranych podczas biopsji oraz egzosomów wyizolowanych z krwi od pacjentów z rozpoznanym rakiem płuca, umożliwiając ocenę zaburzeń metabolicznych charakterystycznych dla efektu Warburga, który jest zjawiskiem powszechnie obserwowanym w nowotworach złośliwych. Identyfikacja takich zmian może wspierać ocenę agresywności guza, prognozowanie odpowiedzi na leczenie oraz dobór strategii terapeutycznej dostosowanej do indywidualnego profilu metabolicznego nowotworu. Ponadto uważamy, że badania nad egzosomami wyizolowanymi z krwi otwierają drogę do opracowania nieinwazyjnych metod wykrywania raka płuca na podstawie pojedynczej próbki krwi, co może stanowić przełom w kierunku wczesnej diagnostyki i monitorowania choroby.
Białka wewnętrznie nieuporządkowane (ang. intrinsically disordered proteins, IDP) odgrywają kluczową rolę w podstawowych procesach biologicznych, między innymi w przenoszeniu informacji zapisanej w kwasach nukleinowych na białka. Ich funkcja ujawnia się dopiero w momencie, gdy tworzą kompleksy z innymi białkami, służącymi jako molekularne „nożyczki”, które przerywają szlak translacji. Ponadto IDP wywołują separację faz ciekłych (ang. liquid-liquid phase separation, LLPS) [1,2], w której zasadnicze znaczenie ma ich polimerowy charakter i wielowartościowość oddziaływań niekowalencyjnych, w które mogą się jednocześnie angażować. W procesie separacji faz ciekłych, który ma charakter binodalny, nieustrukturyzowane łańcuchy białkowe tworzą sieci oddziaływań, co prowadzi do ich lokalnego zagęszczenia i pojawiania się mikro-kropli białkowych. Co więcej, do tworzących się mikro-kropel na skutek oddziaływań międzycząsteczkowych włączane są także białka, które same nie podlegają separacji faz. Umożliwia to powstawanie w żywej komórce skomplikowanych multi-kompleksów z udziałem kilkudziesięciu różnych białek, tzw. organelli bezbłonowych, o wyspecjalizowanych funkcjach biologicznych.
Przedstawimy diagramy fazowe i wyjaśnimy molekularne podstawy zjawiska separacji ciecz-ciecz dla jednego z białek odpowiedzialnych za wyciszanie genów u człowieka. Zjawisko to oparte jest na oddziaływaniach pierścieni łańcuchów bocznych tryptofanów, bogatych w zdelokalizowane elektrony typu π–π. Oddziaływania te napędzane są entropowo, a LLPS wykazuje dolną temperaturę krytyczną. Aby zbadać w sposób ilościowy kinetykę dyfuzji cząsteczek białkowych i ich kompleksów w lokalnym zagęszczeniu wewnątrz mikro-kropelek, połączyliśmy dwie powszechnie stosowane metody: FRAP (odzyskiwanie fluorescencji po fotowybielaniu) oraz FRET (rezonansowy transfer energii Förstera). Tandem FRET-FRAP pozwolił nam odróżnić białka uczestniczące w oddziaływaniach specyficznych od tych przypadkowo uwięzionych w mikro-kroplach głównie poprzez lokalne zatłoczenie molekularne. Dzięki angstromowej rozdzielczości przestrzennej FRET-FRAP stanowi uniwersalną i wysoce selektywną metodę identyfikacji specyficznych kompleksów białkowych w warunkach wysokiego tłoku molekularnego.
Prace sfinansowano częściowo ze środków NCN: grantów 2016/22/E/NZ1/00656 dla A. N. oraz 2023/49/B/NZ1/04320 dla M. K. B. Badania przeprowadzono w laboratoriach NanoFun współfinansowanych przez EFRR w ramach programu POIG.02.02.00-00-025/09.
Wystąpienie poświęcone będzie wpływowi struktury makrocząsteczek na ich właściwości hydrodynamiczne, ze szczególnym uwzględnieniem białek nieuporządkowanych strukturalnie (IDP) oraz superskręconych minpętli DNA. Wyniki pokazują, że gruboziarniste modelowanie struktury molekularnej pozwala na precyzyjne przewidywanie takich parametrów jak współczynnik dyfuzji, sedymentacji czy promień hydrodynamiczny. W przypadku IDP opracowano efektywną metodę wyznaczania promienia hydrodynamicznego, bazującą na szybkim generowaniu zespołu konformacji za pomocą samounikających błądzeń losowych oraz zastosowaniu metody minimalnej dyssypacji energii [1]. Podejście to zostało zweryfikowane eksperymentalnie dla szerokiej gamy IDP o różnych długościach łańcucha i różnym składzie domenowym, wykazując znacznie większą dokładność niż klasyczne podejścia fenomenologiczne [2]. Wyniki badań pokazują, że uwzględnienie granic domen globularnych jest kluczowe dla dokładności predykcji, podczas wpływ oddziaływań między resztami aminokwasowymi w regionach nieuporządkowanych jest mniej znaczący. Z kolei w przypadku minipętli DNA wykazano, że ujemne superskręcenie znacząco wpływa na kształty pętli oraz ich właściwości hydrodynamiczne, mierzone metodą ultrawirowania analitycznego (AUC)[3]. Przewidywania teoretyczne, oparte na modelu włókna elastycznego i obliczeniach hydrodynamicznych, wykazały dobrą zgodność z danymi eksperymentalnymi, dostarczając cennych informacji o związku między kształtem DNA a jego zachowaniem hydrodynamicznym. Porównanie z metodami elektroforezy żelowej podkreśla zalety AUC w precyzyjnym badaniu właściwości transportowych, przy jednoczesnej konieczności wsparcia modelowaniem dla pełnej interpretacji danych.
[1] B. Cichocki, M. Rubin, A. Niedźwiecka, P. Szymczak, Diffusion coefficients of elastic macromolecules, J. Fluid. Mech., 878, R3, 2019
[2] R. Waszkiewicz, A. Michaś, M.K. Białobrzewski, B. P. Klepka, M.K. Cieplak-Rotowska, Z. Staszałek, B. Cichocki, M. Lisicki, P. Szymczak, A. Niedźwiecka, Hydrodynamic Radii of Intrinsically Disordered Proteins: Fast Prediction by Minimum Dissipation Approximation and Experimental Validation, J. Phys. Chem. Lett., 15, 5024-5033, 2024
[3] R. Waszkiewicz, M. Ranasinghe, J.M. Fogg, D. J. Catanese, M.L. Ekiel-Jeżewska, M. Lisicki, B. Demeler, L. Zechiedrich, and P. Szymczak, DNA supercoiling-induced shapes alter minicircle hydrodynamic properties, Nucleic Acids Res. 51, 4027, 2023
Precyzyjne obliczenia czy też pomiary były często przyczyną spektakularnych przełomów naukowych. Omówię status i perspektywy precyzyjnych obliczeń teoretycznych w ramach Modelu Standardowego, które są niezbędne przy poszukiwaniu nowych oddziaływań czy też cząstek w LHC i przyszłych akceleratorach leptonowych. Skale energii oraz jakość planowanych do budowy akceleratorów pozwolą na badanie problemu elementarności cząstek elementarnych, czyli możliwego istnienia podstruktur tych cząstek, przyczyniając się do lepszego zrozumienia struktury i własności kwantowej próżni. Bez wątpienia następne lata i dekady badań odkryją przed nami nowe horyzonty w świecie cząstek elementarnych.
The Belle II experiment, operating at the SuperKEKB asymmetric-energy electron-positron collider in Tsukuba, Japan, represents a major advancement in precision flavor physics. With a target luminosity of $50 ab^{⁻¹}$, Belle II is poised to collect a dataset approximately $50$ times larger than that of its predecessor, Belle. This significantly increased data sample, combined with the clean experimental environment of an $e^⁺e^⁻$ collider and a highly efficient detector system, opens up a broad range of physics opportunities, particularly in areas where missing energy in the final state plays a critical role.
One of the distinctive strengths of Belle II is its ability to study processes involving invisible particles — such as neutrinos or hypothetical dark sector candidates — with high sensitivity. Transitions with missing energy are particularly challenging in hadron collider environments due to the large and complex background, but they are much more tractable at Belle II thanks to the well-defined initial state and full event reconstruction techniques. These methods allow us to infer the presence of invisible particles and perform precision measurements of decay modes such as $B \to \tau \nu$, $B \to D^{(*)}\tau\nu$, and $B \to K^{(*)}\nu\bar{\nu}$, which are crucial probes of lepton flavor universality and potential signs of new physics beyond the Standard Model.
Recent results from Belle II already demonstrate its strong physics potential. Precision measurements of semileptonic B decays have begun to test the consistency of current tensions in the flavor sector, while early data on τ lepton decays and radiative transitions have set competitive constraints. Additionally, Belle II’s ability to study rare and forbidden processes — including lepton flavor-violating τ decays, searches for light dark matter candidates, and invisible decays of the Υ(1S) — highlights the breadth of its physics reach.
This talk will present an overview of the most recent Belle II results, with particular focus on analyses that involve missing energy final states. We will discuss the methods used to identify these challenging processes, including full event interpretation (FEI), tag-side reconstruction, and advanced machine learning techniques to suppress background and maximize signal sensitivity. These tools enable Belle II to provide world-leading sensitivity in several key channels, offering a unique and complementary probe to the LHC experiments.
Looking forward, Belle II is accumulating data and improving detector performance. With each increase in integrated luminosity, the experiment’s reach into rare processes deepens. The full physics program will be sketched not only the existing anomalies in the flavor sector — such as those related to $R(D)$ and $R(D^{\star})$ — but will also search for entirely new phenomena that could reveal the limitations of the Standard Model.
In summary, Belle II is entering a highly productive phase, with a diverse and growing portfolio of physics results. Its unique capability to explore transitions involving missing energy sets it apart as a key player in the global effort to uncover new physics in the flavor sector.
Kwark b o masie m_b \simeq 4.5 GeV/c^2 byłby cząstką
stabilną, gdyby element V_{cb} macierzy Cabibbo-Kobayashi-Maskawy
miał zerową wartość. Precyzyjne wyznaczenie wartości V_{cb} z danych
doświadczalnych jest konieczne, aby zwiększyć czułość na ``nową fizykę''
procesów ze zmieniającymi zapach prądami neutralnymi. Osiągnięcie
precyzji nie jest łatwe, ze względu na uwięzienie kwarku b w
relatywistycznych stanach związanych, z których najlżejszymi są mezony
B o masie m_B \simeq 5.3 GeV/c^2. W swoim referacie
przedstawię metodę postępowania w przypadku inkluzywnych
semileptonowych rozpadów mezonów B, a także podsumuję obecny status
obliczeń szerokości i momentów widmowych tych rozpadów przy wykorzystaniu
rozwinięcia w potęgach (m_B-m_b)/m_B.
Wimentyna należy do rodziny filamentów pośrednich i stanowi kluczowy komponent mechanicznego rusztowania komórki. Jej trójwymiarowa sieć cytoplazmatyczna umożliwia absorpcję i redystrybucję naprężeń mechanicznych, szczególnie tych związanych z kompresją, oraz chroni jądro komórkowe przed deformacją i uszkodzeniem. Co więcej, poza klasyczną lokalizacją cytoplazmatyczną, wimentyna może występować także na powierzchni komórek (ang. cell surface vimentin, CSV), gdzie pełni funkcje związane z adhezją, migracją, immunomodulacją, a także, jak pokazują najnowsze badania, z podatnością komórek na infekcje wirusowe.
Podczas wykładu przedstawię wyniki badań nad oddziaływaniem pomiędzy domeną wiążącą RBD białka kolca SARS-CoV-2 a wimentyną powierzchniową. Dzięki wykorzystaniu wysokorozdzielczych technik eksperymentalnych, takich jak mikroskopia sił atomowych (AFM) i mikrowaga kwarcowa (QCM) wykażę, że interakcja ta jest stabilna i selektywna, a jej molekularny charakter potwierdza modelowanie in silico. Obserwacje te wspierają hipotezę, że CSV może pełnić funkcję współreceptora wspomagającego przyłączanie wirusa do komórek gospodarza, niezależnie od obecności znanego powszechnie receptora ACE2.
Omawiane wyniki mają znaczenie zarówno dla podstawowego zrozumienia mechanizmu biofizycznego infekcji SARS-CoV-2, jak i dla rozwoju nowych strategii terapeutycznych - w szczególności ukierunkowanych na blokowanie interakcji wirus-komórka gospodarza.
Bibliografia:
1. Pogoda, K., Byfield, F., Deptuła, P., Cieśluk, M., Suprewicz, Ł., Skłodowski, K., ... & Janmey, P. A. (2022). Unique role of vimentin networks in compression stiffening of cells and protection of nuclei from compressive stress. Nano Letters, 22(12), 4725-4732.
2. Deptuła, P., Fiedoruk, K., Wasilewska, M., Suprewicz, Ł., Ciesluk, M., Zeliszewska, P., Oćwieja, M., Adamczyk, Z., Pogoda, K. & Bucki, R. (2023). Physicochemical nature of SARS-CoV-2 spike protein binding to human vimentin. ACS applied materials & interfaces, 15(28), 34172-34180.
In mammalian cells, the meters-long genome is confined and protected by the micron-scale cell nucleus. Notably, the nucleus is a mechanically sensitive compartment that mediates how external forces influence chromosomal organization. Chromatin, particularly transcriptionally inactive heterochromatin, is key in resisting nuclear deformation. However, heterochromatin’s phase separation inside the nucleus and its polymer physical properties that affect the force response and transmission of the nucleus are now known. To investigate how heterochromatin contributes to nuclear mechanical resilience, we employed polymer physics simulations of a nucleus model calibrated with micromechanical measurements and chromosome conformation capture data. Our findings reveal that tethering of heterochromatin to the nuclear boundary is essential for transmitting mechanical forces into the chromatin network and causing an excessive elastic response. In contrast, affinity-based interactions that may promote phase separation of chromatin do not significantly impact nuclear stiffness in our simulations. Under mechanical strain, gel-like (crosslinked) peripheral heterochromatin can absorb the stress and deform, while the more fluid euchromatin in the nuclear interior remains relatively unaffected. These results suggest that heterochromatin’s mechanical properties and spatial organization can govern nuclear elasticity and mechano-sensing by enabling physical coupling between external forces and the internal chromatin landscape.
Ostatnio wykazano, że kanały potasowe wewnętrznej błony mitochondrialnej (mitoK) biorą udział w cytoprotekcji. Dlatego, podejrzewamy, że ochrona komórek nabłonka przed uszkodzeniami wywołanymi przez cząstki stałe (PM) może być związana z aktywacją kanałów potasowych w mitochondriach. Aby zweryfikować rolę mitochondrialnego kanału potasowego o dużej przewodności regulowanego jonami Ca2+ (mitoBKCa) w cytoprotekcji w odpowiedzi na stres wywołany przez PM, przeprowadziliśmy serię eksperymentów z wykorzystaniem metody patch-clamp, oceny przeznabłonkowego oporu elektrycznego, pomiarów oddychania mitochondrialnego, metod fluorescencyjnych do pomiaru poziomu ROS i potencjału błony mitochondrialnej oraz pomiarów żywotności komórek z wykorzystaniem barwienia błękitem trypanu. W modelu uszkodzenia komórek nabłonka oskrzeli człowieka (16HBE14o- wt) wykorzystano cząstki stałe o średnicy 4 µm (PM4.0). Lepsze zrozumienie związku między metabolizmem mitochondriów a patofizjologią komórek może pomóc w poszukiwaniu skutecznych strategii cytoprotekcyjnych. Być może dzięki wykorzystaniu naturalnie pozyskiwanych aktywatorów kanałów mitochondrialnych BKCa nauczymy się wspierać i indukować te mechanizmy, aby przeciwdziałać skutkom uszkodzeń wywołanych przez PM.
Praca została sfinansowana przez Narodowe Centrum Nauki (NCN) w ramach projektu OPUS18 nr 2019/35/B/NZ1/02546.
Choroba otyłościowa jest schorzeniem systemowym dotyczącym wielu układów i narządów. Charakteryzuje się zwiększoną chorobowością i śmiertelnością, a ryzyko to wzrasta wraz ze stopniem otłuszczenia ciała. Choć ze względu na swoją złożoność mechanizm biochemiczny rozwoju otyłości nie jest w pełni poznany, wiadomo, że jako proces patologiczny upośledza prawidłowe funkcjonowanie tkanek, w co zaangażowane są m. in. pierwiastki śladowe. Podobnie jak dla wszystkich schorzeń również w przypadku otyłości niezwykle ważnym jest jak najszybsze zdiagnozowanie odstępstw pojawiających się już na początkowym etapie choroby.
Rentgenowska analiza fluorescencyjna, została wykorzystana do oceny zmian pierwiastków śladowych w tkankach szczurów, rasy Wistar, zachodzących na wczesnym etapie otyłości indukowanej dieta wysokokaloryczną. Badania wykonano w obszarach mózgu bezpośrednio i pośrednio zaangażowanych w regulację apetytu jak również w narządach/tkankach szczególnie narażonych w otyłości tj. wątrobie, nerkach, sercu, tkance tłuszczowej oraz tkance mięśniowej. Dodatkowo, analizie poddano również tkankę małżowiny usznej. Do oceny zmian pierwiastkowych wykorzystane zostały dwie metody rentgenowskiej analizy fluorescencyjnej (XRF), tj. rentgenowska analiza fluorescencyjna oparta na promieniowaniu synchrotronowym (SRXRF) do zbadania selektywnych obszarów mózgu, oraz rentgenowska analiza fluorescencyjna z całkowitym odbiciem promieniowania X (TXRF) do analizy pozostałych tkanek. Pomiary cienkich skrawków mózgu zrealizowano w dwóch ośrodkach synchrotronowych, tj. Elettra oraz w Narodowym Centrum Promieniowania Synchrotronowego SOLARIS. Badania techniką TXRF przeprowadzono z wykorzystaniem spektrometru TXRF Nanohunter II (Rigaku) na tkankach poddanych uprzednio mineralizacji wysokociśnieniowej. Analiza danych pomiarowych wsparta została wielowymiarowymi metodami eksploracji danych z uwzględnieniem metod chemometrycznych.
Stwierdzono, że najbardziej nasilone zmiany w składzie pierwiastkowym, we wczesnym stadium otyłości indukowanej dietą wysokokaloryczną, obserwowane są w mózgu, wątrobie oraz tkance tłuszczowej. W mózgu, największe różnice poziomu analizowanych pierwiastków (Na, Mg, P, S, Cl, K, Ca, Fe, Cu, Zn, Rb) pomiędzy otyłymi i nieotyłymi osobnikami stwierdzono w obszarach bezpośrednio związanych z regulacją apetytu (ośrodek głodu i sytości) oraz ciele migdałowatym, w mniejszym stopniu - w istocie czarnej i polu brzusznym nakrywki. Odmienne obserwacje stwierdzono dla Rb. Istotnie zwiększony poziom tego pierwiastka u osobników otyłych zaobserwowany został we wszystkich tkankach, w tym we wszystkich badanych obszarach mózgu. Co więcej, poziom Rb był silnie skorelowany z fizjologicznymi i metabolicznymi wskaźnikami otyłości.
Wyniki badań składu pierwiastkowego tkanek, wsparte analizami chemometrycznymi, w połączeniu z oceną parametrów fizjologicznych i metabolicznych otyłych zwierząt, pozwoliły zgłębić naszą wiedzę na temat wczesnego stadium otyłości oraz zaproponować Rb jako nowy, potencjalny marker tego schorzenia.
Rosnące zagrożenie związane ze skażeniem drobnoustrojami oraz ograniczenia standardowych metod dezynfekcji przyczyniły się do wzrostu zainteresowania wielofunkcyjnymi nanomateriałami o regulowanych właściwościach przeciwdrobnoustrojowych i przeciwwirusowych. Nasze najnowsze badania koncentrują się na syntezie i projektowaniu nanomateriałów zdolnych do selektywnej inaktywacji patogenów przy jednoczesnym minimalizowaniu szkodliwego wpływu na pożyteczne mikroorganizmy oraz komórki ssacze.
Badamy układy obejmujące m.in. modyfikowane powłoki tlenków metali, nanocząstki z mieszaninami ligandów oraz związki naturalne oraz wykorzystywane już w przemyśle – każdy z nich dostosowany do wykorzystania określonych mechanizmów fizykochemicznych do osiągnięcia zakładanego celu. Dzięki kontrolowanym warunkom syntezy, obejmującym m.in. modyfikację ligandów, stosowanie domieszek lub dodatków reakcyjnych, pokazujemy, w jaki sposób skład materiału i architektura powierzchni wpływają na interakcje biologiczne w skali nano.
Opracowane materiały wykazują szerokie spektrum działania, stabilność oraz biokompatybilność, co czyni je obiecującymi kandydatami do zastosowań w ochronie bioprocesów, urządzeniach medycznych oraz bezpieczeństwie żywności i wody. Praca ta podkreśla znaczenie racjonalnego projektowania materiałów w tworzeniu nowej generacji czynników przeciwdrobnoustrojowych oraz konieczność integracji chemii fizycznej z wymaganiami układów biologicznych.
Kusior, A., Mazurkow, J., Jelen, P., Bik, M., Raza, S., Wdowiak, M., Nikiforov, K., & Paczesny, J. (2024). Copper Oxide Electrochemical Deposition to Create Antiviral and Antibacterial Nanocoatings. Langmuir, 40(29), 14838–14846. https://doi.org/10.1021/acs.langmuir.4c00642
Maleki-Ghaleh, H., Kamiński, B., Moradpur-Tari, E., Raza, S., Khanmohammadi, M., Zbonikowski, R., Shakeri, M. S., Siadati, M. H., Akbari-Fakhrabadi, A., & Paczesny, J. (2024). Visible Light-Sensitive Sustainable Quantum Dot Crystals of Co/Mg Doped Natural Hydroxyapatite Possessing Antimicrobial Activity and Biocompatibility. Small. https://doi.org/10.1002/smll.202405708
Raza, S., Bończak, B., Atamas, N., Karpińska, A., Ratajczyk, T., Łoś, M., Hołyst, R., & Paczesny, J. (2025). The activity of indigo carmine against bacteriophages: an edible antiphage agent. Applied Microbiology and Biotechnology, 109(1), 24. https://doi.org/10.1007/s00253-025-13414-4
Raza, S., Mente, P., Kamiński, B., Bończak, B., Maleki-Ghaleh, H., Vignesh, V., & Paczesny, J. (2025). Engineering hydrophobic and electrostatic interactions for selective inactivation of bacteriophages by mixed-ligand nanoparticles. Nanoscale, 17(20), 12929–12936. https://doi.org/10.1039/D5NR00612K
Wdowiak, M., Magiera, A., Tomczyńska, M., Adamkiewicz, W., Stellacci, F., & Paczesny, J. (2025). Protecting bacteriophages under UV irradiation with brilliant blue FCF for targeted bacterial control. Biofilm, 9, 100286. https://doi.org/10.1016/j.bioflm.2025.100286
Wdowiak, M., Raza, S., Grotek, M., Zbonikowski, R., Nowakowska, J., Doligalska, M., Cai, N., Luo, Z., & Paczesny, J. (2025). Phage/nanoparticle cocktails for a biocompatible and environmentally friendly antibacterial therapy. Applied Microbiology and Biotechnology, 109(1), 129. https://doi.org/10.1007/s00253-025-13526-x
Nanoparticles (NPs) , which emit light with an energy higher than that energy of the excitation radiation are gaining attention as a new generation of potential probes for many important applications in biomedicine.
The aim of the research was to design, develop the fabrication technology, characterize and apply Gd2O3: Er, Yb nanoparticles and hybrid core/shell NPs (Fe3O4/Gd2O3: Er, Yb, Mg, Nd) as luminescent markers in HeLa cancer cells. The NPs were synthesized using two different methods: high-energy ball milling with NaCl [1] and the homogeneous co-precipitation method [2]. The NPs were characterized using XRD, TEM, SEM, EDX, confocal microscopy and photoluminescence studies.
The first synthesis method produced separate, upconverting NPs emitting light in the first biological window (NIR-1), with red luminescence (664 nm) and a pure monoclinic crystal structure which guaranteed higher upconversion efficiency. XRD studies showed that the average size of the NPs decreased from 42 nm to 22 nm with increasing milling time.
The homogeneous co-precipitation method allowed for the preparation of Fe3O4 NPs (core) consisting of several 13 nm NPs. This technique is suitable to obtain large, high luminescence, paramagnetic nanoparticles. The core/shell NPs had sizes from 220 nm to 641 nm (depends on process parameters). In the core/shell NPs, the addition of Nd3+ quenches the luminescence. The magnetic response of the core/shell samples was paramagnetic. For Fe3O4/Gd2O3: 1% Er3+, 18% Yb3+, 2.5% Mg2+, 0.5% Nd3+, at 300 K, the magnetization value registered at ~ 40 kOe is ~ 5.3 emu·g−1. The NPs are non-toxic up to a concentration of 1000 μg·ml−1 and penetrate cells by the process of endocytosis which has been confirmed by confocal microscopy studies.
[1] I. Kamińska et al. “Influence of high energy ball milling on structural and optical properties of Gd2O3:1% Er3+, 18% Yb3+ nanoparticles supplemented with NaCl”. Ceramics International, 2025. https://doi.org/10.1016/j.ceramint.2025.03.272.
[2] I. Kamińska et al. “Hybrid upconverting/paramagnetic Fe3O4/Gd2O3: Er3+, Yb3+, Mg2+, Nd3+ nanoparticles – synthesis, characterization and biological applications” Opto-Electronics Review 32, 2024, e150182. https://doi.org/10.24425/opelre.2024.150182.
Acknowledgements
This study was supported by the National Centre for Research and Development, Poland, Research Project No POIR.01.01.01-00-0832/19-00. The research was funded by the Miniatura project of the National Science Centre (DEC-2022/06/X/ST5/00026). This research was partially supported by the "MagTop" project (FENG.02.01-IP.05-0028/23) carried out within the "International Research Agendas" programme of the Foundation for Polish Science co-financed by the European Union under the European Funds for Smart Economy 2021-2027 (FENG).
Wielki Zderzacz Hadronów (LHC) w CERN to największy i najpotężniejszy akcelerator cząstek na świecie. Od momentu uruchomienia w 2008 roku umożliwił przeprowadzenie przełomowych eksperymentów w dziedzinie fizyki wysokich energii, w tym potwierdzenie istnienia bozonu Higgsa w 2012 roku – odkrycia, które zostało uhonorowane Nagrodą Nobla. Jednak fizyka cząstek elementarnych nadal kryje wiele tajemnic, a Model Standardowy – choć skuteczny – nie wyjaśnia wielu fundamentalnych zagadnień. Obecna faza działania LHC dobiega końca – planowany termin wyłączenia akceleratora przypada na połowę 2026. Ale to nie koniec drogi, lecz początek nowego etapu. Aby zajrzeć jeszcze głębiej w strukturę materii i zwiększyć czułość eksperymentów na zjawiska nieznane, CERN przygotowuje zmodernizowaną wersję zderzacza – High-Luminosity LHC (HL-LHC).
HL-LHC to znacząca modernizacja infrastruktury Wielkiego Zderzacza Hadronów. Jej głównym celem jest dziesięciokrotne zwiększenie tzw. świetlności, czyli liczby zderzeń cząstek w jednostce czasu. Większa liczba zderzeń oznacza więcej danych, większą czułość na rzadkie procesy fizyczne oraz szansę na obserwację zjawisk wykraczających poza obecnie znane teorie.
Podczas prezentacji przybliżymy cel i znaczenie HL-LHC w kontekście fizyki cząstek elementarnych, nowe technologie wykorzystywane w modernizacji detektorów i akceleratora, wkład międzynarodowy i rolę polskich naukowców w tym globalnym przedsięwzięciu oraz przykłady tego, co możemy odkryć dzięki HL-LHC – od dokładniejszych pomiarów bozonu Higgsa po ślady nowej fizyki.
Future Circular Collider (FCC) to ambitny projekt Europejskiej Organizacji Badań Jądrowych (CERN), którego celem jest budowa akceleratora cząstek o obwodzie około 90 km, stanowiącego następcę i rozwinięcie możliwości Wielkiego Zderzacza Hadronów (LHC). FCC ma pozwolić na osiągnięcie niespotykanych dotąd energii zderzeń i precyzji pomiarów, otwierając nowe niezbadane perspektywy dla Fizyki Cząstek elementarnych.
W ciągu najbliższych dekad badania nad promieniowaniem kosmicznym o skrajnie wysokich energiach (UHECR) wkroczą w nowy etap dzięki rozbudowie istniejących obserwatoriów (AugerPrime, TA×4, IceCube-Gen2) oraz planowanym eksperymentom nowej generacji (GCOS, GRAND, POEMMA). Nowe technologie umożliwią precyzyjne pomiary energii, masy pierwotnej i zawartości mionów w zdarzeniach atmosferycznych, otwierając drogę do systematycznych badań astrofizycznych źródeł i testowania modeli fizyki cząstek w niedostępnych dotąd reżimach energetycznych. W referacie przedstawię przegląd głównych kierunków rozwoju detekcji UHECR, uwzględniający zarówno precyzyjne obserwacje z wielkich instrumentów naziemnych i kosmicznych, jak i strategie komplementarne – ukierunkowane na detekcję zjawisk rozproszonych, skorelowanych przestrzennie i czasowo. Podkreślę znaczenie otwartości na nieoczekiwane sygnały i anomalie w danych, które mogą zawierać wskazówki dotyczące nieznanych jeszcze mechanizmów. W tym kontekście zaprezentuję potencjał globalnego monitorowania danych oraz udziału obywatelskich systemów detekcji (citizen science) jako uzupełnienia dużych obserwatoriów i jako narzędzia eksploracji przestrzeni obserwacyjnej o niskim poziomie uprzedzeń modelowych. Takie podejścia mogą okazać się istotne nie tylko w poszukiwaniach nowych zjawisk, ale też w poszerzaniu naszej zdolności do weryfikacji współczesnych scenariuszy astrofizycznych i modeli oddziaływań cząstek – w tym dotyczących np. propagacji fotonów o skrajnie wysokich energiach.
Podczas wykładu przedstawiony zostanie projekt akceleratora EIC.
Omówione zostaną uzasadnienie tematyki oraz przewidywany zakres badań.
Zostanie przedstawiony projekt detektora ePIC.
Po ponad dwudziestu latach od odkrycia oscylacji neutrin przygotowujemy się do wejścia w erę eksperymentów, które mają szansę odpowiedzieć na fundamentalne pytania dotyczące neutrin - takie jak łamanie symetrii CP czy hierarchia mas neutrin. W referacie zostaną przedstawione dwa kluczowe eksperymenty akceleratorowe, które są obecnie w fazie budowy: Hyper-Kamiokande w Japonii oraz DUNE w Stanach Zjednoczonych. Oprócz neutrin akceleratorowych będą one również rejestrować cząstki pochodzące z innych źródeł, takich jak atmosfera, Słońce czy supernowe. Omówione zostaną ich nowatorskie technologie detekcji, ambitne cele fizyczne oraz wyzwania związane z osiągnięciem wysokiej precyzji pomiarów – w tym kluczowa rola kontroli niepewności systematycznych. W drugiej części referatu zaprezentowane będą także wybrane nowatorskie koncepcje detektorów oraz źródeł neutrin, które mogą ukształtować przyszłość badań oscylacyjnych.
W ciągu ostatnich kilkudziesięciu lat wysokoenergetyczne zderzacze cząstek stały się jednym z głównych narzędzi badawczych, które doprowadziły do wielu fundamentalnych odkryć w fizyce subatomowej. Po ponad 15 latach od uruchomienia Wielkiego Zderzacza Hadronów środowisko naukowe staje przed wyzwaniem zdefiniowania przyszłości tego kierunku badań. W swoim wystąpieniu przedstawię wybrane niestandardowe przykłady tego, co da się osiągnąć dzięki przyszłym takim maszynom, bazując na niedawnych wynikach prac teoretycznych. Rozważymy przykłady gwarantowanych nowych pomiarów m.in. przy wykorzystaniu wysokoenergetycznych neutrin produkowanych w zderzaczach, jak i bardziej spekulatywne prognozy dotyczące odkryć nowych cząstek elementarnych i ich możliwych związków z budową Wszechświata.
Zwykle fonony, jako wibracje sieci krystalicznej, związane są wychyleniem atomów z położenia równowagi oraz ich ruchem liniowym. W jednak w układach wykazujących n-krotną (n>2) symetrie rotacyjną, funkcje falowe fononów mogą nabierać dodatkowej fazy. W takich przypadkach, realizowane mogą być tzw. chiralne fonony, czyli drgania sieci związane z ruchem kołowym atomów dokoła ich położeń równowagi. Najprostszym przykładem są wibracje sieci plastra miodu [1,2]. Podczas wystąpienia, zaprezentuje przykłady badań ab initio (DFT) chiralnych fononów w wybranych związkach, tj. związki typu CoSn (o symetrii P6/mmm, gdzie chiralne fonony realizowane są w podsieci atomów Sn) [3]; magnetycznych topologicznych izolatorów TBi$_2$Te$_4$ (T=Mn, Fe) [4], związków binarnych ABi (A=K, Rb, Cs) zawierających chiralne łańcuchy atomów bizmutu [5], czy ortorombowej struktury YAlSi [6].
[1] L. Zhang and Q. Niu, Phys. Rev. Lett. 115, 115502 (2015).
[2] H. Chen, W. Wu, S. A. Yang, X. Li, and L. Zhang, Phys. Rev. B 100, 094303 (2019).
[3] A. Ptok, A. Kobiałka, M. Sternik, J. Łazewski, P. T. Jochym, A. M. Oleś, S. Stankov, and P. Piekarz, Phys. Rev. B 104, 054305 (2021).
[4] A. Kobiałka, M. Sternik, and A. Ptok, Phys. Rev. B 105, 214304 (2022).
[5] J. Skórka, K.J. Kapcia, P.J. Jochym, and A. Ptok, Matter. Today Commun. 35, 105888 (2023).
[6] S. Basak and A. Ptok, Crystals 12 , 436 (2022).
W załączniku
The quest of the existence of dark matter is one of the most exciting topics in modern particle physics and astrophysics. The DarkSide experiment has been designed to search for direct interactions of the cold dark matter particles using argon depleted in Ar-39. This special gas is sourced from an underground reservoir of carbon dioxide. Due to expected extremely low signal different techniques have been implemented to minimize the background. Currently the DarkSide-20k (DS-20k) detector is under construction in the underground laboratory at Gran Sasso (LNGS) in Italy.
One of the most important background sources in dark matter searches are neutrons, especially those produced in the (alpha, n) reactions. This is because signals generated by neutrons are indistinguishable from those expected from dark matter particles. Alpha particles can be produced for example by 210Po, a daughter of the long-lived 210Pb (T1/2 = 22.3 years), which can be present in the detector materials (belongs to the U-238 chain). Techniques developed to detect Pb/Po-210 at very low concentrations will be presented. They allow for proper analysis and selection of various materials to be used in the experiment. It has been also shown that Po may diffuse metals from the bulk towards the surface. This effect can cause underestimation of the neutron background at material interfaces (for example: copper – Teflon, copper - argon). This „new type” of background may be important not only for DarkSide but also for other experiment searching for direct dark matter interactions. A method and tools developed to study Po diffusion in various metals will discussed.
Synergia potencjału badawczego Uniwersytetu Kazimierza Wielkiego oraz infrastruktury klinicznej Centrum Onkologii w Bydgoszczy w rozwiązywaniu aktualnych zagadnień z zakresu fizyki medycznej i medycyny nuklearnej
prof. dr hab. Yuriy Zorenko 1,2,3
1 Katedra Materiałów Optoelektronicznych, Wydział Fizyki Uniwersytetu Kazimierza Wielkiego
2 Zakład Fizyki Medycznej Centrum Onkologii w Bydgoszczy
3Przewodniczący Bydgoskiego oddziału PTF
Wykład przedstawia retrospektywę osiągnięć z lat 2021–2025 w zakresie wspólnej działalności naukowej, organizacyjnej i dydaktycznej prowadzonej przez Katedrę Materiałów Optoelektronicznych Uniwersytetu Kazimierza Wielkiego (UKW) oraz Zakład Fizyki Medycznej i Zakład Medycyny Nuklearnej Centrum Onkologii w Bydgoszczy. Osiągnięcia te ukazują ogromny potencjał wynikający z połączenia wiedzy i doświadczenia fizyków pracujących w środowisku akademickim w dziedzinie fizyki i inżynierii materiałowej z praktyką i inicjatywą fizyków medycznych zatrudnionych w Centrum Onkologii. Współpraca ta pozwala na skuteczne rozwiązywanie aktualnych problemów fizyki medycznej i medycyny nuklearnej. Kluczowe znaczenie ma także możliwość łączenia nowoczesnej aparatury badawczej uczelni z zasobami infrastruktury klinicznej Centrum Onkologii.
Wykład obejmuje następujące zagadnienia:
a) Realizacja cyklu prac naukowych na rzecz Centrum Onkologii w Bydgoszczy w obszarze radioterapii i medycyny nuklearnej, obejmujących opracowanie, konstrukcję i wdrożenie nowych detektorów scyntylacyjnych światłowodowych oraz detektorów termoluminescencyjnych do pomiaru dawek różnych typów promieniowania jonizującego w procedurach terapii nowotworów. Dotyczy to także pomiarów dawek pochodzących od tzw. wiązek mieszanych. W szczególności:
• pomiar dawek i rozkładów energetycznych promieniowania rentgenowskiego oraz ocena jego właściwości w procedurach kontroli jakości i stabilności pracy akceleratorów liniowych;
• pomiar in situ dawek promieniowania gamma w procedurach brachyterapii wewnątrz ciała pacjentów;
• pomiar in situ dawek promieniowania rentgenowskiego w procedurach teleradioterapii na powierzchni ciała pacjentów;
• pomiar in situ dawek składników mieszanego promieniowania jonizującego (cząstki alfa, jony 7Li oraz kwanty gamma) w procedurach terapii borowo-neutronowej (BNCT).
b) Reprezentowanie Centrum Onkologii w Bydgoszczy w międzynarodowej organizacji partnerskiej Crystal Clear Collaboration (CERN) w latach 2022–2025.
c) Organizacja wspólnych międzynarodowych wydarzeń naukowych w Centrum Onkologii w Bydgoszczy w latach 2021–2025, w tym: 12th International Conference on Luminescent Detectors and Transformers of Ionizing Radiation (LUMDETR 2021); 79th Crystal Clear Collaboration General Meeting and Collaboration Board Meeting (2023) oraz planowane 17th International Conference on Scintillating Materials and their Applications (SCINT 2028).
d) Udział w opracowywaniu programu studiów oraz prowadzeniu zajęć dydaktycznych na nowym kierunku studiów dualnych „Fizyczne podstawy radioterapii i diagnostyki obrazowej”, realizowanych wspólnie przez UKW i Centrum Onkologii w Bydgoszczy, w celu przygotowania nowego pokolenia specjalistów dla potrzeb Centrum Onkologii.
W jaki sposób mózg zapisuje i przechowuje informację długofalową? Dlaczego pamiętamy coś przez wiele lat i jak dużo energii na to zużywamy? Stabilność pamięci jest o tyle dziwna, że mózg jest stochastycznym obiektem (duża zawartość szumu w temperaturze 300 K). Ma to związek z efektywnym kodowaniem informacji, oraz jej stabilnym przechowywaniem w synapsach (połączeniach między neuronami). Opowiem o tych zagadnieniach z fizycznego punktu widzenia, w oparciu o teorię informacji i najnowszych koncepcjach termodynamiki stochastycznej.
Rozważamy model Price’a dla ewoluującej sieci, tj. rosnącego grafu, w którym przy każdym kroku dodajemy nowy wierzchołek i łączymy jego krawędzie z istniejącymi wierzchołkami, stosując mieszaninę zasad preferencyjnego czysto losowego dołączania. Możemy wyprowadzić oczekiwane stopnie wierzchołków w tym modelu i wykazać, że są one zgodne z wartościami statystyk pozycyjnych w rozkładzie Pareto 2-rodzaju. Ponadto, możemy pokazać, że dla takiego układu dynamicznego indeks Giniego (dobrze znany z ekonometrii jako miara nierówności) jest niezmienniczy. Przedstawimy zastosowanie opisanego modelu do rzeczywistych danych z sieci cytowań. Większość omawianych wyników została uzyskana we współpracy z Markiem Gagolewskim i Barbarą Zogałą-Siudem, ale współpracowaliśmy także z Anną Ceną, Luciem Bertoli-Barsottim, Przemysławem Nowakiem i Maciejem J. Mrowińskim.
Electron Ion Collider (EIC) is a facility that will be built at Brookhaven National Laboratory using and upgrading existing RHIC complex. It is a partnership between BNL and Jefferson Lab, funded by the Department of Energy.
It will feature very high luminosity collisions between electrons and protons as well as ions, with center of mass energy up to 140 GeV. It will have polarized electron and proton beams, with possibility of polarized light ions. It can use wide range of nuclei beams, from lightest to very heavy ones like lead and uranium.
In this talk I will present physics possibilities offered by the precision measurements that will be performed at this facility, including studies of nuclear structure, proton tomography and exploration of the proton spin structure.
Uranium ditelluride hosts an unusual form of spin-triplet superconductivity. Much current research is directed towards understanding the detailed nature of the superconducting state and whether it could eventually be used in fault-tolerant quantum computing. This is an exciting possibility, yet uranium ditelluride is arguably even more fundamentally interesting because applying pressure or magnetic field leads to other forms of superconductivity. The high magnetic field superconductivity, in particular, challenges our theoretical understanding of the stability of superconductors. I will discuss the interesting history of this material and highlight the outstanding questions that remain to be answered.
Prosimy o przychodzenie od 18:30, serwis od 19:00 do 21:00, sala do 24:00
W załączniku
Zjawisko lawinowej emisji fotonów (ang. photon avalanche - PA) występujące w nieorganicznych kryształach domieszkowanych jonami lantanowców jest niezmiernie interesującym procesem nieliniowej i anty-stokesowskiej fotoluminescencji. Obserwacja PA jest możliwa po spełnieniu kilku podstawowych wymagań – obejmują one: (i) wydajną absorpcję ze stanu wzbudzonego i zaniedbywalną absorpcję ze stanu podstawowego oraz (ii) wydajne procesy relaksacji krzyżowej (CR) wymagane do ‘zasilenia’ pośredniego poziomu wzbudzenia. W rezultacie, przy podwojeniu intensywności pobudzenia, intensywność luminescencji PA wzrasta o kilka, zazwyczaj 2-3 rzędy wielkości.
O ile zjawisko lawinowej emisji fotonów odkryto w 1979 roku [1] z myślą o licznikach fotonów z bliskiej podczerwieni lub laserach na nietypowych długościach fali [2], dopiero niedawno udało się uzyskać emisję lawinową również dla nanocząstek NaYF$_{4}$ domieszkowanych Tm$^{3+}$ w temperaturze pokojowej przy fotowzbudzeniu 1064 i 1450 nm i emisji 800 nm [3]. Otworzyło to nowe możliwości zastosowań tych materiałów.
W wykładzie, wytłumaczony zostanie mechanizm lawinowej emisji fotonów oraz przedstawione zostaną przykłady możliwych zastosowań lawinowej emisji fotonów – np. w obrazowaniu nadrozdzielczym [3], konstrukcji czujników [4], nanotermometrii luminescencyjnej [5] oraz obliczeniach rezerwuarowych [6].
Referencje:
[1] J. S. Chivian, W. E. Case, and D. D. Eden, Appl. Phys. Lett. (1979) 35, 124–125.; [2] M. F. Joubert, Opt. Mater. (Amst). (1999) 11, 181–203.; [3] Ch. Lee et al., Nature (2021), 589, 230-235; A.Bednarkiewicz et al. (2019) Nanoscale Horizons, 4(3), 706-719; [4] A.Bednarkiewicz, E.Chan, K.Prorok, Nanoscale Adv., 2020,2, 4863-4872; M.Majak, M.Misiak, A.Bednarkiewicz Mater. Horiz., 2024,11, 4791-4801 [5] M.Szalkowski et al., Optical Materials: X (2021)12, 100102; L.Marciniak et al. J. Mater. Chem. C, 2018, 6, 7568 [6] A Bednarkiewicz, M Szalkowski, M Majak, Z Korczak, M Misiak, S Maćkowski, Adv Mater. 2023 Aug 12;e2304390.
In this talk, I will survey recent progress at PsiQuantum, a company based in Silicon Valley and pioneering large-scale fault-tolerant quantum computing using photonic architecture. I will first give a brief update on our path toward scalable fault-tolerant hardware and provide an overview of the activities of our quantum applications team. Fault-tolerant quantum computers are expected to become transformative technologies of the 21st century, and their most prominent applications are anticipated to lie in the simulation of quantum systems for chemistry and materials science. However, a significant share of today's supercomputing power is devoted to simulating classical dynamical systems, such as plasmas and fluids. This has motivated a new research direction aimed at exploring the potential to extend quantum algorithms beyond quantum dynamics, while retaining meaningful advantage (exponential or high-polynomial) over classical algorithms. Thus, in the main part of the talk, I will present our recent results, obtained in collaboration with Los Alamos National Laboratory, concerning quantum algorithms for simulating the dynamics of nonlinear classical systems.
W ostatnich latach badania nad kontrolowaną syntezą jądrową osiągnęły znaczące kamienie milowe zarówno w podejściu z magnetycznym (MCF-Magnetic Confinement Fusion), jak i inercyjnym (ICF-Inertial Confinement Fusion) utrzymywaniu plazmy, potwierdzając realność pozyskiwania energii z fuzji termojądrowej. W grudniu 2023 roku, podczas ostatniej kampanii eksperymentalnej deuterowo-trytowej DTE3 w tokamaku JET, ustanowiono nowy światowy rekord – 69 MJ energii fuzji uzyskanej w pojedynczym wyładowaniu trwającym około 5 sekund, przy użyciu zaledwie 0,2 mg paliwa. Rekord ten nie tylko przewyższył wcześniejsze osiągnięcia (59 MJ z 2021 roku), ale także wykazał zdolność precyzyjnej kontroli plazmy deuterowo-trytowej w warunkach zbliżonych do planowanych dla reaktora ITER. Eksperymenty przeprowadzono z wykorzystaniem materiałów ścian plazmowych zgodnych z koncepcją ITER (beryl i wolfram) oraz z zastosowaniem rozwiniętych scenariuszy hybrydowych, umożliwiających utrzymanie wysokiej mocy fuzji przez wydłużony czas. Jednocześnie, na urządzeniu NIF (National Ignition Facility, rozwijając metodę bezwładnościowego uwięzienia plazmy (ICF), po raz pierwszy w historii osiągnięto dodatni bilans energetyczny względem dostarczonej energii lasera. W grudniu 2022 roku zarejestrowano 3,15 MJ energii fuzji przy 2,05 MJ energii impulsu laserowego (Q = 1,54), a w kolejnych eksperymentach współczynnik Q był systematycznie poprawiany, osiągając w 2025 roku wartość Q ≈ 4,13 przy uwolnieniu 8,6 MJ energii. Postęp ten był możliwy dzięki ulepszeniom systemu laserowego, projektowaniu kapsuł paliwowych oraz modelowaniu numerycznemu uwzględniającemu niestabilności hydrodynamiczne. Osiągnięcia te mają fundamentalne znaczenie dla przyszłości energetyki, ponieważ po raz pierwszy zademonstrowano zarówno wydłużone i stabilne utrzymanie fuzji w dużym urządzeniu typu tokamak, jak i pełnoskalowy zapłon plazmy w warunkach laboratoryjnych. Synteza magnetyczna i inercyjna, choć różne w swojej naturze, wykazują komplementarne możliwości i potwierdzają, że kontrolowana synteza jądrowa zbliża się do etapu praktycznego wykorzystania jako czyste i niemal niewyczerpane źródło energii.
Od lat obserwowany jest dynamiczny postęp technologiczny w technikach
dostarczania dawki w radioterapii. Jego motorem jest z jednej strony
potrzeba eskalacji dawki w obszarze tarczowym, z drugiej zaś
oszczędzenie tkanek sąsiadujących z nowotwerem. Submilimetrowa precyzja
techniczna i mechaniczna stała się codziennością stawiając przed
dozymetrią kliniczną niełatwe wyzwanie w zakresie monitorowania jakości.
Szczególnie dokuczliwe jest opóźnienie rynku narzędzi dozymetrycznych w
obszarze kontrolowania technik dynamicznych oraz hybrydowych
akceleratorów do radioterapii adaptacyjnej.
W trakcie prezentacji zarysowane zostaną projekty badawcze prowadzone w
ramach współpracy fizyków z Centrum Onkologii w Bydgoszczy z innymi
podmiotami, w szczególności z Wydziałem Fizyki Uniwersytetu Kazimierza
Wielkiego w Bydgoszczy.
Wstęp
Jednym z warunków bezpiecznego stosowania promieniowania jonizującego w promieniolecznictwie jest zapewnienie wysokiej zgodności parametryzacji dozymetrycznej aparatury, oraz zgodności symulacji obliczeniowych z rzeczywistością realizowaną na przyśpieszaczach liniowych, standardowo używanych w klinice.
Cel
Celem pracy jest przedstawienie metodologi i formalizmu kontroli dozymetrycznych oraz nadzoru nad funkcjonowaniem całego portu maszynowego zakładu radioterapii, funkcjonującego w trzech lokalizacjach, odległych o (70-110) km od macierzystego zakładu radioterapii, w którym przygotowywany jest proces leczenia.
Materiał i Metoda
DCOPiH działa w oparciu o 10 przyspieszaczy liniowych, 6 w ośrodku we Wrocławiu, 2 w Jeleniej Górze, dwa w Legnicy, oraz o 5 tomografów rtg do parametryzacji rozkładu dawki. Dame obliczeniowe przygotowywane są w oparciu o system planowania leczenia i nadzoru radioterapii, który integruje wszystkie maszyny, a system serwerów znajduje się w jednostce macierzystej. Wszystkie urządzenia połączone są ciemnym łączem światłowodowym
Protokół sterowania transmisją danych TCP jest połączeniowym, niezawodnym, strumieniowym protokołem komunikacyjnym stosowanym do przesyłania danych między procesami uruchomionymi na różnych urządzeniach.
Protokół TCP korzysta z usług protokołu IP do wysyłania i odbierania danych oraz ich fragmentacji wtedy, gdy jest to konieczne.
Protokół TCP zapewnia wiarygodne przesyłanie danych pomiędzy dwoma hostami, wykorzystując do tego kilka mechanizmów, takich jak: sumy kontrolne i numery sekwencyjne.
Do celów parametryzacji dozymetrycznej używany jest integracyjny system myQa firmy Iba, który pozwala wykonać pomiary bezpośrednio, ale również prowadzić ich zdalny nadzór, co zapewnia jednorodność działania specjalistów fizyki medycznej we wszystkich naszych placówkach. Aby przybliżyć zakres zadań i kompetencji fizyka odpowiedzialnego za bezpieczeństwo dozymetryczne, w ramach wyników, przedstawione zostaną sprawozdania z badań metrycznych przykładowego akceleratora liniowego.
Wnioski
Nadzór specjalisty fizyki medycznej nad aparaturą terapeutyczną jest zadaniem wysokiej precyzji i świadectwem dojrzałości metrycznej osoby wykonującej pomiar. Bezpieczeństwo leczenia promieniami wymaga wieloetapowego procesu kontroli: samych urządzeń jaki aparatury metrycznej regularnie kontrolowanej i dostosowanej do nowej technologii, jednorodności metod postępowania, skrupulatnie opracowanego rachunku błędów, ale nade wszystko świetnie wyspecjalizowanej kadry.
W załączniku
Organic molecules exhibiting so-called excited state intramolecular proton transfer (ESIPT) have demonstrated unique fluorescent properties, including dual-emission and large values of Stokes shift [1]. However, their application in thin films and related technologies is limited and mainly focused on the realization of efficient white light organic light-emitting diodes (WOLEDs) [2]. In the frame of exploring new applications for ESIPT compounds, we have designed and synthesized two benzothiazole isomers with tailored optical properties in thin films.
First, we have demonstrated that tuning of fluorescence emission wavelength and fluorescence quantum yield for those compounds resulted from modified (inter)molecular interactions in thin films. The latter were achieved by optimization of several parameters, including selection of solvent used for deposition and by studying the effect of the annealing temperature [3]. Basing on this approach, we have also elaborated more advanced materials in form of thin films incorporating ESIPT molecules. It was achieved by doping the ESIPT analogues with a novel far-red fluorescent dye, thus realizing organic Förster resonance energy transfer (FRET) systems. We have explored the role of their molecular interactions by studying their morphology and fluorescent properties. Such analysis enabled us to develop unique temperature indicators based on FRET mechanism. The developed temperature indicators are air-stable, capable of detecting multiple temperature ranges, and compatible with naked eye inspection under UV illumination. Finally, the application of thin films as thermal indicators was demonstrated for simple visual inspection and for ratiometric sensing, showing noticeable color changes every 20 °C and remarkable sensitivities of up to 14 % °C-1 [4].
References:
[1] Kwon, J. E.; Park. S. Y., Advanced Organic Optoelectronic Materials: Harnessing Excited-State Intramolecular Proton Transfer (ESIPT) Process. Adv. Mater. 2011, 23, 3615-3642
[2] Yang, N.; Yue, G.; Zhang, Y.; Qin, X.; Gao, Z.; Mi, B.; Fan, Q.; Qian, Y., Reproducible and High-Performance WOLEDs Based on Independent High-Efficiency Triplet Harvesting of Yellow Hot-Exciton ESIPT and Blue TADF Emitters. Small 2024, 20, 2304615
[3] Soares, F. A.; Martinez-Denegri, G.; Baptista, L. A.; Sleczkowski, P.; Steinbuchel, A., Balancing the Push-Pull Effect on the Synthesis and Fluorescent Properties of New ESIPT Dyes for Thin Film Applications. J. Phys. Chem. C 2023, 127, 17624-17636
[4] Martinez-Denegri, G.; Soares, F. A.; Sleczkowski, P., Wide Color Gamut and High Sensitivity in Luminescent Thermal Indicators from an Organic Energy Donor-Acceptor System with Tunable Molecular Interactions. Adv. Optical Mater. 2025, 13, 2403073.
Tlenek węgla (CO) jest jedną z kluczowych cząsteczek w badaniach atmosfer planet i egzoplanet oraz procesów zachodzących w przestrzeni kosmicznej. Precyzyjne wyznaczenie energii jego poziomów energetycznych oraz opisanie procesów nimi zarządzających ma fundamentalne znaczenie dla modelowania zjawisk i dynamiki obiektów astrofizycznych.
Badania prowadzone w Laboratorium Spektroskopii Materiałów (LSM) Instytutu Nauk Fizycznych są ukierunkowane na precyzyjne pomiary częstotliwości molekuł wykorzystywanych m.in. przez globalną bazę danych ExoMol. Wyniki naszych badań, 806 linii spektralnych progresji (v’ – 0) systemu Camerona (a3Π – X1Σ+), istotnie rozszerzyły te zasoby i dostarczyły informacji na temat struktury elektronowej i dynamiki molekuły tlenku węgla w zakresie systemów zabronionych regułami wyboru. Otrzymane widma otrzymano za pomocą spektroskopii absorpcyjnej w zakresie próżniowego ultrafioletu (VUV-FT) z wykorzystaniem spektrometru Fouriera zainstalowanego na linii DESIRS synchrotronu SOLEIL pod Paryżem.
W celu zbudowania bazy ExoMol dla molekuły CO zastosowano algorytm MARVEL (Measured Active Rotational-Vibrational Energy Levels), który umożliwia dokładne określenie poziomów energetycznych CO poprzez systematyczną analizę szerokiego zbioru danych eksperymentalnych. Wykorzystanie MARVEL pozwoliło na integrację wyników z 17 wcześniejszych badań, prowadząc do weryfikacji 5213 przejść ro-wibronicznych oraz wyznaczenia energii 2586 poziomów energetycznych obejmujących sześć najniżej położonych stanów elektronowych cząsteczki CO. Algorytm ten stanowi zaawansowane narzędzie umożliwiające unifikację danych spektroskopowych i ich spójną interpretację. Dzięki niemu będzie można wygenerować nieznane dotąd linie o wysokich rotacjach dla systemów będących przedmiotem obecnej pracy.
Przedstawione badania są wynikiem współpracy grupy fizyków molekularnych Uniwersytetu Rzeszowskiego z University College London (Wielka Brytania), Vrije Universiteit (Holandia), Massachusetts Institute of Technology (USA), Khalifa University (Zjednoczone Emiraty Arabskie), Synchrotron SOLEIL (Francja), Politechnika Rzeszowska, oraz HUN-REN–ELTE Complex Chemical Systems Research Group (Węgry).
Nielokalność kwantowa to zjawisko, w którym wyniki pomiarów wykonywanych w przestrzennie odseparowanych stacjach wykazują silne korelacje, niemożliwe do wyjaśnienia w ramach klasycznych teorii. Powszechnie przyjmowano, że obowiązuje zasada monogamii nielokalności – czyli że nie da się jej współdzielić pomiędzy wieloma obserwatorami. Pokazujemy, że zasada ta dotyczy wyłącznie przypadków z trzema uczestnikami. Dla większej liczby obserwatorów możliwe jest jednoczesne zaobserwowanie nielokalności w różnych konfiguracjach. Zjawisko to może znaleźć zastosowanie m.in. w wielostronnej dystrybucji kluczy kwantowych oraz testowaniu złożonych sieci kwantowych.
Bell nonlocality—the existence of correlations that cannot be reproduced by means of local hidden variable models—is one of the most distinctive features of quantum theory. Indeed, the pioneering experiments to verify the existence of this phenomenon were awarded a Nobel Prize in Physics in 2022. What is more, beyond its fundamental interest, Bell nonlocality has been recognized as a valuable resource for various applications within device-independent quantum information processing, where observers process information without placing trust into the devices themselves. One of such applications that has recently gained substantial interest, driven by the recent rapid development of new quantum technologies, is the device-independent certification of entangled quantum states and the measurements performed on them, commontly referred to as self-testing. In this talk I will present our recent results [1,2] exploiting Bell nonlocality to design self-testing schemes for arbitrary quantum states and measurements. Our results are formulated within the framework of quantum networks in which many observers share correlations, possibly quantum, which are distributed by multiple of sources. The key ingredient of our method is the construction of a family of Bell inequalities that enable the self-testing of a tomographically complete set of measurements performed by an arbitrary number of observers, as well as an arbitrary number of maximally entangled pair of particles shared among them.
References:
[1] S. Sarkar, C. Datta, S. Halder, R. Augusiak, Self-testing composite measurements and bound entangled state in a single quantum network, Phys. Rev. Lett. 134, 190203 (2025).
[2] S. Sarkar, A. C. Orthey, Jr., R. Augusiak, A universal scheme to self-test any quantum state and extremal measurement, arXiv:2312.04405.
This talk explores recent progress in distinguishing and certifying random quantum operations and measurements. We discuss key results from three studies:
These findings contribute to the development of robust quantum technologies by improving our understanding of the fundamental limits of quantum discrimination and certification.
Spektroskopia mikrofalowa to metoda pomiarowa polegająca na analizie transmisji oraz odbicia sygnału mikrofalowego od badanego obiektu w celu wyznaczenia jest przenikalności elektrycznej. Pozwala to na bezinwazyjne i szybkie (nawet w ułamku sekundy) badanie parametrów dielektrycznych próbki. Dotychczas metoda ta znalazła zastosowanie w wielu obszarach inżynierskich – od budownictwa (m.in. pomiar wilgotności ścian) po rolnictwo (np. kontrola świeżości owoców).mCelem niniejszej pracy to implementacja spektroskopii mikrofalowej w diagnostyce medycznej. Aby tego dokonać opracowany zostały dwa prototypy czujników: kardiologicznego „RuFuS” (Radio Frequency Spectroscopy) oraz „RFlect” do pomiarów zmian impedancji mięśni.
Pierwszy z prototypów ma docelowo umożliwić ocenę ilości płynu gromadzącego się w pęcherzykach płucnych pacjentów z niewydolnością serca. Zastój płucny pozostaje jedną z głównych przyczyn hospitalizacji w przypadkach niewyrównanej niewydolności serca [1]. Polega on na gromadzeniu się płynu przesiękowego w pęcherzykach płucnych, co zaburza wymianę gazową. Aby opracować bardziej spersonalizowane terapie, konieczne jest stworzenie nowatorskich narzędzi diagnostycznych, pozwalających na efektywniejsze i precyzyjniejsze dawkowanie leków moczopędnych.
Testy pierwszej wersji układu wykazały, że u pacjentów z zastojem płucnym, potwierdzonym badaniem RTG, absorpcja promieniowania radiowego jest istotnie wyższa w porównaniu z grupą kontrolną [2]. Urządzenie zostało objęte ochroną patentową (nr Pat. 24598, Urząd Patentowy RP), co otwiera drogę do dalszych prac rozwojowych i możliwego wdrożenia w praktyce klinicznej. Drugi z prototypów, „RFlect”, przeszedł już szczegółowe analizy numeryczne oraz serię testów eksperymentalnych, co potwierdziło jego czułość na niewielkie zmiany impedancji w układach wielowarstwowych o wysokiej stratności. W kolejnej fazie planujemy wykorzystać ten czujnik do nieinwazyjnej oceny hipotonii mięśniowej, otwierając drogę do nowych możliwości monitorowania pacjentów z zaburzeniami nerwowo-mięśniowymi oraz wspomagania procesów rehabilitacyjnych.
Nośniki leków w terapii celowanej, hipertermia magnetyczna czy negatywne środki kontrastujące do badań MRI to tylko wybrane przykłady zastosowań nanocząstek magnetycznych w teranostyce. Szybko postępujący rozwój nanomedycyny sprawia, że coraz bardziej potrzebne są uniwersalne narzędzia do badania właściwości takich mikroskopowych struktur i ustalenia ich interakcji z otoczeniem biologicznym. Metodą, którą z powodzeniem można wykorzystać w tym celu, okazuje się być spektroskopia elektronowego rezonansu spinowego (ESR) [1].
Nanocząstki z rdzeniem wykonanym z magnetytu (Fe3O4) lub maghemitu (γ-Fe2O3) i różną funkcjonalizacją powierzchni a także mikrokapsułki oraz znane pod angielską nazwą „liquid marbles”- opłaszczone krople z wbudowanym w powłokę tlenkiem żelaza w postaci proszku albo wyizolowanych z bakterii magnetotaktycznych magnetosomów to tylko wybrane przykłady obiektów, jakie charakteryzowaliśmy z wykorzystaniem spektroskopii ESR. Pomiary umożliwiły m.in. określenie rodzaju i właściwości materiału rdzenia nanocząstek oraz zbadanie jego anizotropii magnetokrystalicznej oraz powierzchniowej. Zakres otrzymywanych informacji został rozszerzony dzięki zastosowaniu znacznika spinowego TEMPO (2,2,6,6-tetrametylo-1-oksopiperydyny), który trwale dołączono do biozgodnej powłoki nanocząstek tlenku żelaza. Analiza sygnałów elektronowego rezonansu paramagnetycznego zarejestrowanych w szerokim zakresie temperatur dla przyłączonego nitroksydu umożliwiła bowiem uzyskanie dodatkowych danych o cechach polimerowej otoczki a także interakcjach nanostruktur z środowiskiem biologicznym (np. pełną krwią ludzką, komórkami czy tkankami) [2,3]. W tym przypadku niezwykle przydatne okazały się symulacje widm wykonane w programie EasySpin, które umożliwiły m.in. wyznaczenie czasu korelacji rotacyjnej znacznika spinowego oraz innych parametrów otrzymanych sygnałów, m.in. wartości głównych tensora oddziaływania nadsubtelnego. Spektroskopia ESR okazała się także bardzo dobrym narzędziem do śledzenia procesu endocytozy znakowanych spinowo nanocząstek a także monitorowania reakcji oksydacyjno-redukcyjnych, zachodzących wewnątrz komórek drożdży piekarniczych. Dodatkowym atutem zastosowania znacznika TEMPO była możliwość obrazowania funkcjonalizowanych nim nanocząstek magnetytu w różnych ośrodkach, m.in. w celu śledzenia dyfuzji wstrzykniętego do hydrożelowego fantomu nośnika leku chemioterapeutycznego [4].
Badania prowadzone w ostatnich latach na Uniwersytecie Adama Mickiewicza w Poznaniu mają za zadanie w lepszym stopniu poznać własności nanostruktur magnetycznych zawierających tlenki żelaza i zrozumieć mechanizmy ich interakcji z materią biologiczną, co jest niezbędne na etapie poprzedzającym przyszłe zastosowania kliniczne. Spektroskopia elektronowego rezonansu spinowego okazuje się bardzo przydatnym narzędziem w takich projektach naukowych.
Literatura:
[1]. T. Kubiak, B. Dobosz, Road Map for the Use of Electron Spin Resonance Spectroscopy in the Study of Functionalized Magnetic Nanoparticles, Materials 18 (2025).
[2]. T. Kubiak, The Influence of Blood and Serum Microenvironment on Spin-Labeled Magnetic Nanoparticles, Magnetism 4(2), (2024), 114-124.
[3]. R. Krzyminiewski, B. Dobosz, i inni, ESR as a monitoring method of the interactions between TEMPO-functionalized magnetic nanoparticles and yeast cells, Scientific Reports 9, (2019), 18733.
[4]. R. Krzyminiewski, T. Kubiak i inni, EPR spectroscopy and imaging of TEMPO-labeled magnetite nanoparticles, Current Applied Physics 14(5) (2014), 798–780.
Maria Skłodowska-Curie położyła fundamenty pod rozwój fizyki jądrowej i radioterapii, łącząc odkrycia naukowe z ich praktycznym zastosowaniem w medycynie.
Podążając śladami odkryć z zakresu fizyki jądrowej, zostanie wskazany związek między nauką podstawową a jej rolą jako siły napędowej postępu klinicznego w onkologii radiacyjnej.
Prezentacja pokaże na wybranych przykładach, w jaki sposób badania w dziedzinie fizyki jądrowej przekładają się na innowacje technologiczne i zwiększenie precyzji leczenia.
Współczesna radioterapia, w tym zaawansowane techniki, takie jak terapia protonowa, wciąż czerpie z podstawowych badań nad strukturą jądra atomowego, oddziaływaniami cząstek oraz mechanizmami promieniotwórczości.
Jednym czynników rażenie broni jądrowej jest promieniowanie jonizujące, które powstaje zarówno bezpośrednio w momencie wybuchu, jak i w wyniku skażenia promieniotwórczego terenu. Przebywanie w schronieniu w chwili eksplozji oraz w pierwszych dniach po niej może znacząco ograniczyć dawkę pochłoniętego promieniowania i zmniejszyć ryzyko wystąpienia ostrej choroby popromiennej, która może prowadzić do śmierci. Mimo to, nawet niewielkie dawki promieniowania budzą duże obawy społeczne ze względu na możliwe odległe skutki zdrowotne, takie jak nowotwory złośliwe czy zmiany genetyczne u potomstwa. Na podstawie ponad czterech dekad badań osób, które przeżyły zrzucenie bomb atomowych na Hiroszimę i Nagasaki, Międzynarodowa Komisja Ochrony Radiologicznej oszacowała, że ryzyko zgonu z powodu białaczki wynosi 0,9% na każdy 1 Sv otrzymanej dawki, a ryzyko śmierci z powodu guzów litych spowodowanych promieniowaniem – 5% na 1 Sv. Częstość występowania mutacji genetycznych u dzieci osób napromienionych jest również niska – nie przekracza 0,6% na 1 Sv, co nie odbiega znacznie od poziomu tła naturalnego. Nie zaobserwowano także wzrostu częstości zachorowań na nowotwory czy inne choroby u dzieci poczętych po ekspozycji na promieniowanie jednego lub obojga rodziców. Najbardziej wrażliwą grupą są kobiety w ciąży pomiędzy 8 a 15. tygodniem – w ich przypadku narażenie na dawkę 1 Sv może skutkować opóźnieniem rozwoju intelektualnego u około połowy dzieci. Okazuje się jednak, że tak wysokie dawki promieniowania można otrzymać zasadniczo tylko bardzo blisko epicentrum wybuchu, gdzie promieniowanie cieplne i fala uderzeniowa stanowią podstawowy czynnik rażenia i prowadzą do całkowitych zniszczeń.
W załączniku
Egzosomy to zewnątrzkomórkowe pęcherzyki (o rozmiarach około 30–100 nm) tworzone przez większość komórek eukariotycznych. Odgrywają one istotną rolę w komunikacji międzykomórkowej, a także są podejrzewane o udział w rozwoju nowotworów. Mogą być również wykorzystane jako nośnik substancji aktywnych w terapiach celowanych.
Celem badania jest analiza wpływu promieniowania na egzosomy w zależności od dostarczonej dawki i zastosowanego rodzaju promieniowania. Egzosomy zostały wyizolowane z linii komórkowej PC3, pochodzącej z przerzutu do kości ludzkiej powstałego z pierwotnego raka prostaty IV stopnia.
Napromienianie egzosomów przeprowadzono z wykorzystaniem wiązki protonowej (CCB w IFJ PAN), a w najbliższych tygodniach planowane są napromieniania z użyciem wiązek fotonowych i elektronowych. Napromienione próbki są badane za pomocą mikroskopii sił atomowych (AFM) oraz analizy śledzenia nanocząsteczek (NTA). Techniki te pozwalają stwierdzić, czy promieniowanie zaabsorbowane przez próbkę zawierającą pojedyncze nanocząsteczki wpływa na utworzenia klastrów egzosomów. Ich formowanie pozwala na łatwiejszą detekcję przy użyciu cytometrii przepływowej, co przekłada się na zwiększenie dokładności metod diagnostycznych z wykorzystaniem egzosomów.
Radioterapia stanowi jedną z podstawowych metod leczenia nowotworów, opartą na selektywnym niszczeniu komórek patologicznych, przede wszystkim nowotworowych, za pomocą promieniowania jonizującego. Niestety, niezależnie od rodzaju zastosowanego promieniowania, w zakresie mocy dawek używanych we współczesnej praktyce klinicznej może dochodzić również do uszkodzeń zdrowych komórek.
Fizycy medyczni odpowiedzialni za planowanie radioterapii opracowują odpowiednią geometrię wiązek promieniowania w taki sposób, aby maksymalnie ograniczyć dawkę pochłoniętą przez zdrowe tkanki, przy jednoczesnym zapewnieniu skutecznej dawki terapeutycznej w obszarze zmienionym chorobowo. Od wielu lat intensywnie rozwijane są technologie obrazowania, umożliwiające precyzyjne określenie położenia struktur anatomicznych poddawanych napromienianiu.
Współczesna radioterapia wykorzystuje zaawansowane techniki obrazowania umożliwiające ocenę lokalizacji zarówno napromienianych objętości, jak i sąsiadujących narządów krytycznych w czasie rzeczywistym. Od niedawna dostępne są także systemy umożliwiające adaptację planu leczenia — radioterapia adaptacyjna. Czyli dostosowanie rozkładu dawki do aktualnego położenia i kształtu struktur anatomicznych. W tym celu stosuje się obrazowanie z wykorzystaniem rezonansu magnetycznego (MRI) lub promieniowania rentgenowskiego (tzw. promieniowanie X).
Powyższe zagadnienia rodzą istotne pytania:
• W jaki sposób można najefektywniej wykorzystać potencjał radioterapii adaptacyjnej?
• Czy istnieją matematyczne modele, które jednoznacznie potwierdzają korzyści kliniczne wynikające z jej stosowania?
• Jakie obszary w dziedzinie radioterapii wymagają dalszego rozwoju technologicznego — zarówno w zakresie sprzętu, jak i oprogramowania?
Kwantowa teleportacja wieloportowa jest metodą teleportacji stanów kwantowych konceptualnie inną niż standardowa teleportacja kwantowa. W przypadku układów dwuwymiarowych zagadnienie teleportacji wieloportowej zostało rozwiązane przy pomocy teorii grupy SU(2). W niniejszym wykładzie zostanie pokazane, że układów o dowolnym wymiarze zagadnienie to można rozwiązać stosując teorię grupy symetrycznej. Pokazuje to, że teleportacja wieloportowa jest ściśle związana z klasycznymi grupami symetrii mającymi bardzo istotne i uniwersalne zastosowania w nauce i poza nią. W szczególności zastosowanie właśnie grupy symetrycznej pozwoliło złamać przed wojną słynny szyfr Enigma.
Sprawne technologie kwantowe będą wymagać wiernego przesyłu informacji przez układ wielociałowy. Sformułuję kryterium bezstratnej propagacji sygnału i wykażę, że pojedynczy kubit może odgrywać rolę anteny odbierającej informację pochodzącą ze złożonego układu. Będzie to możliwe również wtedy, gdy antena "zanurzona jest" w wielociałowym ośrodku i znajduje się z dala od źródła. O dziwo, taka jednokubitowa antena może odebrać pełny sygnał wzmocniony przez splątanie źródła. Oznacza to, że odczytu tej informacji można dokonać za pomocą prostych operacji na pojedynczym kubicie.
Fizyka kwantowych układów wielu ciał, a szczególnie procesy dynamiczne w nich zachodzące, kryją wiele tajemnic. Trudności w ich numerycznej symulacji są związane z rozmiarem przestrzeni Hilberta która rośnie wykładniczo z ilością składowych tworzących taki układ. Dużą nadzieje w pogłębienie naszego zrozumienia takich procesów pokłada się w rozwoju dedykowanych symulatorów i komputerów kwantowych. W tym kontekście możemy obecnie obserwować wyścig o supremacje między zaawansowanymi algorytmami numerycznymi, bazującymi na sieciach neuronowych i tensorowych, a obecną generacją komputerów kwantowych. W trakcie prezentacji omówię aspekty takiego wyścigu w kontekście jednego z najprostszych modeli wielodziałowych: kwantowego modelu Isinga na sieci kwadratowej, wzbudzanego ze stanu równowagi przez zmieniające się w czasie poprzeczne pole magnetyczne.
Jako inspiracja zaczerpnięta z dziedziny chemii, katalizator został
wprowadzony do teorii informacji kwantowej jako układ pomocniczy, który
rozszerza zakres możliwych transformacji stanów, pozostając niezmieniony w
trakcie protokołu. W niniejszym referacie przedstawię, jak ta idea może
zostać zastosowana do nierównowagowych stanów kwantowych, gdzie
transformacja odpowiada pojedynczemu cyklowi silnika cieplnego [1, 2].
Kataliza w tym przypadku prowadzi do poprawy wydajności i mocy takiego
silnika. Powyższy schemat dyskretnej maszyny cieplnej został następnie
uogólniony na silniki pracujące w ciągłym sprzężeniu z otoczeniem
termicznym, w ramach dynamiki opisanej markowskim równaniem master.
[1] M. Łobejko et al., Phys. Rev. Lett. 132, 260403
[2] T. Biswas et al., Phys. Rev. E 110, 044120
Przedstawiamy teoretyczną propozycję memrystora kwantowego działającego na poziomie pojedynczych fotonów, implementującego zachowanie memrystywne, włączając charakterystyczne pętle histerezy, w kwantowym układzie optycznym poprzez sprzężenie zwrotne oparte na pomiarach stanów polaryzacji fotonów [1]. Analogicznie do klasycznych memrystorów, gdzie rezystancja zależy od historii elektrycznej układu, nasze urządzenie kwantowe przekształca wejściowe stany fotonów zgodnie z |ψout(t)⟩ = Û(θ(t))|ψin(t)⟩, gdzie operator unitarny Û(θ) ewoluuje na podstawie wyników pomiarów poprzednich fotonów, wykazując efekty pamięci zależne od ścieżki [2]. W przeciwieństwie do klasycznych memrystorów opierających się na właściwościach materiałowych, nasze teoretyczne urządzenie osiąga efekty pamięci poprzez pomiary kwantowe i szybkie sprzężenie zwrotne, z dynamiką charakteryzowaną przez dθ/dt = ηN(t)+γ(θ₀−θ), gdzie η jest siłą sprzężenia zwrotnego, N(t) reprezentuje zdarzenia detekcji, a γ jest współczynnikiem relaksacji. Model teoretyczny przewiduje wysoką wierność stanów przy jednoczesnym działaniu w warunkach ograniczeń czasowych, gdzie procesy sprzężenia zwrotnego muszą być zakończone w czasie koherencji fotonu (∼μs). Nasza propozycja dostarcza wglądu w implementację kwantowych układów memrystywnych odmiennie niż w [3] oraz z zastosowaniami w fotonicznych obliczaniach kwantowych, adaptacyjnych sensorach kwantowych i neuromorficznych urządzeniach kwantowych.
Bibliografia
[1] K. Lemr et al., Experimental Implementation of Optimal Linear-Optical Controlled-Unitary Gates, Phys. Rev. Lett., 114, 153602, (2015).
[2] J. Salmilehto et al., Quantum memristors with superconducting circuits, Sci. Rep. 7, 42044 (2017).
[3] M. Spagnolo et al., Experimental photonic quantum memristor, Nature Physics 18, 1056 (2022).
Pdf and tex files of the abstract are attached.
We investigate how the topology of quantum graphs influences their spectral properties, such as the number and distribution of eigenvalues and their statistical correlations. We present the application of microwave networks as a tool for simulating quantum graphs and experimentally investigating their spectral properties.
Quantum graphs are widely used as effective models of quantum chaotic systems, allowing for investigations of their spectral properties. By appropriately designing the graph topology, one can obtain spectral statistics corresponding to all three symmetry classes defined in Random Matrix Theory (GOE, GUE, GSE) and examine their properties. The research can be extended to open systems with absorption. Microwave networks allow for the experimental realization of graphs corresponding to each of these three symmetry classes and are currently the only known physical system capable of achieving this.
In addition, we explore other relations between the topological structure of the graph and its energy spectrum. We demonstrate how to construct quantum graphs that violate Weyl's law, as well as graphs with different topologies but identical scattering properties. Spectral analysis also enables the determination of the graph’s Euler characteristic, i.e., the difference between the number of its vertices and edges.
All theoretical and numerical results were experimentally confirmed using microwave networks simulating the corresponding quantum graph structures.
Quantum optics has typically been associated with experiments involving optical fields with low mean number of photons. However, recent studies have demonstrated that macroscopic quantum states of light can be generated with intensities high enough to drive extreme nonlinear processes like high-harmonic generation. The workhorse for these breakthrough experiments has been a Ti:sapphire laser technology, which is limited to the near-infrared spectral range. Here, we present a source of controllable single-cycle mid-infrared laser pulses based on a Cr:ZnS mode-locked laser, often referred to as the "long-wavelength Ti:sapphire". This technology provides a promising platform for exploring ultrafast quantum phenomena in the longer wavelength domain.
Spontaniczne pola magnetyczne (SPM) oraz proces ich powstawania należą do jednych z najbardziej interesujących zjawisk zachodzących podczas oddziaływania intensywnego promieniowania laserowego z materią. Wcześniejsze badania (eksperymentalne i teoretyczne) wykazały, że SPM przekraczające 1MG mogą znacznie modyfikować współczynniki transportu plazmy i tym samym wpływać na rozkłady koncentracji elektronowej i temperatury plazmy, absorpcję promieniowania laserowego oraz wartość ciśnienia ablacyjnego. Z tego względu, w kontekście rozważanych obecnie koncepcji fuzji inercyjnej (ICF), zrozumienie mechanizmów generacji SPM oraz ich roli w osiągnięciu zapłonu termojądrowego jest niezwykle istotne.
Spośród wielu metod pomiaru SPM, jedną z najbardziej wiarygodnych i efektywnych jest polaro-interferometria oparta na magnetooptycznym efekcie Faraday’a. Metoda ta jest jednak trudna w realizacji technicznej, ponieważ wymaga przeprowadzenia jednoczesnych pomiarów interferometrycznych i polarymetrycznych. Jej zaletą jest możliwość uzyskania informacji o rozkładzie SPM i koncentracji elektronowej w całym obszarze badanej plazmy z wysoką rozdzielczością przestrzenną i czasową.
Szczególnie interesującym wariantem polaro-interferometrii jest interferometria kompleksowa, która polega na połączeniu kanałów polarymetrycznego i interferometrycznego w jeden, w którym rejestrowany jest tzw. interferogram kompleksowy. Na jego podstawie, za pomocą analizy amplitudowo-fazowej można otrzymać informacje, zarówno o rozkładzie fazy jak i rozkładzie kąta skręcenia płaszczyzny polaryzacji, a następnie rozkładzie SPM [1, 2]. Znajomość SPM jest szczególnie ważna, gdyż umożliwia uzyskanie informacji o rozkładach gęstości prądu w plazmie ablacyjnej związanych z ruchem elektronów, a w szczególności gorących odpowiedzialnych z transport energii lasera do frontu ablacji.
Interferometria kompleksowa była pierwszy raz efektywnie zaimplementowana przez zespół z Instytutu Fizyki Plazmy i Laserowej Mikrosyntezy (IFPiLM) w badaniach prowadzonych na instalacji laserowej Prague Asterix Laser System (PALS) w Czechach [1]. W ostatnim czasie diagnostyka ta odegrała kluczową rolę w najnowszych badaniach namagnetyzowanych strumieni plazmowych kreowanych przy użyciu tarcz o specjalnej konstrukcji (typu snail, disc-coil, open-book), związanych zarówno z realizacją fuzji inercyjnej poprzez implozję magnetyczną [3-5], jak i modelowaniem laboratoryjnym obiektów astrofizycznych [6].
Podczas wykładu przedstawione zostaną podstawy interferometrii kompleksowej, a także wybrane najnowsze wyniki badań prowadzonych na PALS z udziałem zespołu z IFPiLM.
[1] T. Pisarczyk et al., Phys. Plasmas, 22, 102706 (2015)
[2] A. Zaraś-Szydłowska et al. AIP Advances 10, 115201 (2020)
[3] T. Pisarczyk et al. Plasma Phys. Control. Fusion 64 115012 (2022)
[4] T. Pisarczyk et al. Plasma Phys. Control. Fusion 65 055015 (2023)
[5] T. Pisarczyk et al. Plasma Phys. Control. Fusion 66 115007 (2024)
[6] A. Zaraś-Szydłowska et al. „Experimental Studies of Colliding Plasma Streams Generated by Laser Irradiation of an Open-Book Type Target” praca w przygotowaniu.
Synteza jądrowa, będąca przedmiotem intensywnych badań naukowych na całym świecie, stanowi jedno z najbardziej zaawansowanych technologicznie wyzwań współczesnej fizyki oraz inżynierii energetycznej, oferując perspektywę uzyskania wydajnego, bezpiecznego i praktycznie niewyczerpalnego źródła energii. Kluczowym przedsięwzięciem w tym obszarze jest międzynarodowy projekt ITER – największy eksperymentalny reaktor termojądrowy typu tokamak, który ma pełnić rolę głównej platformy badawczej służącej weryfikacji technologii niezbędnych do konstrukcji przyszłych elektrowni fuzyjnych, jak i również metod kontroli zanieczyszczeń oraz promieniowania emitowanego przez plazmę.
Ważną rolę w przygotowaniach do uruchomienia ITER-a odegrał tokamak JET (Joint European Torus), który umożliwiał symulację warunków zbliżonych do przewidywanych w tym reaktorze. W ostatnich latach jego eksploatacji przeprowadzono dwie kluczowe kampanie badawcze z użyciem mieszaniny deuteru-trytu. Kampanie te miały fundamentalne znaczenie dla rozwoju tzw. scenariusza bazowego (wysokoprądowego), pozwalając na szczegółowe badania stabilności w tzw. „wysokim” trybie wyładowania i utrzymywania plazmy oraz mechanizmów ograniczających jej trwałość.
W kampanii zrealizowano scenariusz bazowy przy prądzie plazmy 3.5 MA, jednak czas trwania stabilnej plazmy był ograniczony do kilku sekund, głównie ze względu na intensywne promieniowanie oraz akumulację zanieczyszczeń o wysokim Z, szczególnie wolframu [1]. W kolejnej kampanii zastosowano zmodyfikowane parametry wyładowania, w tym obniżenie prądu plazmy do 3 MA oraz zwiększenie intensywności dozowania paliwa, co pozwoliło na wydłużenie czasu trwania stabilnej plazmy do 5 sekund – stanowiąc istotny postęp w optymalizacji scenariusza dla ITER-a [2].
W prezentowanej pracy przeprowadzono szczegółową analizę kontroli zanieczyszczeń oraz emisji promieniowania w wyładowaniach plazmowych typu bazowego, realizowanych w trakcie obu kampanii eksperymentalnych. Uwzględniono wpływ parametrów operacyjnych, takich jak moc grzania zewnętrznego plazmy, strumień dozowanego paliwa oraz aktywność niestabilności plazmy (zjawisk typu ELM), na akumulację zanieczyszczeń. Porównano charakterystyki najlepszych impulsów z plazmą deuterową, trytową i deuterowo-trytową, a szczególną uwagę poświęcono najbardziej stabilnemu impulsowi, w którym przez 5 sekund utrzymywano stan stacjonarny. Analiza oparta na danych z widm w zakresie VUV oraz pomiarów bolometrycznych umożliwiła kompleksową ocenę procesów radiacyjnych i dynamiki zanieczyszczeń, dostarczając cennych informacji na potrzeby projektowania scenariuszy operacyjnych dla przyszłych reaktorów termojądrowych.
Wbrew pozorom fizycy od bardzo dawna angażowali się w badania związane z naukami społecznymi. W ostatnim ćwierćwieczu zainteresowania te systematycznie wzrosły. Terminy ekonofizyka czy socjofizyka nie budzą już zdziwienia, a wiele uczelni oferuje studia z ekonofizyki. Wykład ma na celu przedstawienie motywacji i głównych kierunków badawczych w tej dyscyplinie i zachęcić do promowania tej tematyki wśród młodzieży.
Czy światło może rozwiązywać problemy przemysłu? W Narodowym Centrum Promieniowania Synchrotronowego SOLARIS odpowiedź brzmi: zdecydowanie tak.
SOLARIS to jedyny w Europie Środkowo-Wschodniej synchrotron – zaawansowany akcelerator elektronów, który generuje promieniowanie elektromagnetyczne o unikalnych właściwościach. Dzięki niemu możliwe jest prowadzenie badań, które jeszcze niedawno były poza naszym zasięgiem.
Podczas prezentacji przedstawię przykłady badań przemysłowych prowadzonych w Centrum SOLARIS oraz w innych synchrotronach na świecie. Pokażę, jak zaawansowane metody fizyczne przekładają się na realne korzyści gospodarcze. Omówię również modele współpracy z przemysłem – od samodzielnego korzystania z infrastruktury po kompleksową obsługę zleceń przez zespół naukowców SOLARIS.
Zapraszam na spotkanie z fizyką, która działa na rzecz innowacyjnej gospodarki – fizyką, która świeci przykładem.
Obrazowanie mionowe (muografia) wykorzystuje kosmiczne promieniowanie mionowe do nieinwazyjnego badania wnętrza obiektów o dużej gęstości, umożliwiając wizualizację struktur niedostępnych dla tradycyjnych metod obrazowania. Technika opiera się na pomiarze absorpcji i rozpraszania mionów przechodzących przez materiał, co pozwala na rekonstrukcję rozkładu gęstości wewnętrznej obiektu.
W ramach rozwoju technologii Muotech.io prowadzi prace nad symulacjami i modelami komputerowymi, które pozwalają optymalizować geometrię detektorów, prognozować dokładność rekonstrukcji i projektować systemy dopasowane do konkretnych zastosowań. Prezentacja pokaże również wybrane wyniki eksperymentalne z inspekcji konstrukcji betonowych i monitoringu wnętrza wulkanów, uwzględniające odwzorowanie struktur o grubości do kilku metrów oraz identyfikację anomalii gęstości materiału.
Dodatkowo omówione zostaną perspektywy komercjalizacji technologii, w tym możliwości zastosowania muografii w przemyśle budowlanym, geofizyce oraz ochronie infrastruktury krytycznej. Prezentacja podkreśli potencjał muografii jako narzędzia badawczego i komercyjnego, łączącego nowoczesną fizykę cząstek z praktycznymi zastosowaniami inżynieryjnymi.
Prosimy o rejstrację na seans lub wystawę "Astronomia". Można wybrać obie opcje. Liczba miejsc ograniczona. Formularz w linkach poniżej//
We kindly ask you to register for a planetarium show or the 'Astronomy' exposition. One can choose both options. The number of participants is limited. The form to be found in the links below.