Co nowego powstaje  w laboratoriach światowych w dziedzinie informatyki, telekomunikacji, baz danych, i … kubków smakowych?

Infrastruktura telekomunikacyjna w systemach wczesnego ostrzegania przed trzęsieniami ziemi

Sieć przewodów światłowodowych, oplatająca kulę ziemską,  jest niezbędna w zaspokajaniu potrzeb teleinformatycznych, internetu, usług telekomunikacyjnych, obsługi centrów danych czy sztucznej inteligencji. Światłowód     zaspokaja nasze rosnące zapotrzebowanie na szybki internet i usługi telekomunikacyjne. Jednak sygnały w kablach mogą czasami ulegać wibracjom spowodowanym przez przejeżdżające nad nimi samochody, trwające w pobliżu budowy, a nawet trzęsienia ziemi. Naukowcy proponowali już wcześniej wykorzystanie tych zaburzeń do przekształcenia tysięcy kilometrów podziemnego kabla w czułe sensory  sejsmiczne.

Światłowód ma za zadanie  przesyłania światła, które może przenosić zakodowane informacje z ekstremalną wydajnością. Nawet niewielkie dotknięcie lub zagięcie może zakłócić jego przepływ, dlatego firmy telekomunikacyjne dokładają wszelkich starań, aby zminimalizować zakłócenia środowiskowe. „Jednak to, co dla telekomunikacji jest szumem, dla nas jest danymi” – mówi Zhongwen Zhan, geofizyk z California Institute of Technology.

Źródło: Scientific American Magazine, January 2026, Volume 334, Issue 1.

W  Science 25 września 2025 (https://www.science.org/doi/10.1126/science.adx6858) opublikowane zostały wyniki badań, w których naukowcy wykorzystali 15 kilometrów światłowodu telekomunikacyjnego w pobliżu Mendocino w Kalifornii, aby zarejestrować największe trzęsienie ziemi w regionie od pięciu lat – rejestrując w najdrobniejszych szczegółach, jak wybuch o magnitudzie 7 rozpoczął się, zwolnił i przyspieszył, przyspieszając nawet szybciej niż prędkość dźwięku.

Dzięki wykorzystaniu większej liczby kabli i uzyskaniu jeszcze większej liczby danych, sejsmolodzy mogliby lepiej zrozumieć trzęsienia ziemi. I chociaż sieć światłowodów raczej nie będzie w stanie przewidzieć trzęsień ziemi przed ich wystąpieniem, naukowcy mogliby wykorzystać tę technikę do opracowania lepszych systemów wczesnego ostrzegania, które ratują życie.

W Kalifornii zazwyczaj następują dwa lub trzy trzęsienia ziemi rocznie, które są na tyle silne – czyli o magnitudzie 5,5 lub wyższej – że powodują umiarkowane uszkodzenia budynków. W całym stanie znajduje się ponad 700 sejsmometrów. Każdy z nich kosztuje do 50 000 dolarów, a utrzymanie sieci detektorów jest kosztowne.

Umieszczenie czujnika jak najbliżej źródła trzęsienia ziemi jest ważne dla wczesnego wykrywania. Nie jest to możliwe w przypadku drogich sejsmometrów. Z drugiej strony, światłowody są już ułożone w ziemi, krzyżując się wszędzie, tworząc gęstą i niedrogą sieć czujników sejsmicznych. „Mamy bardzo rozległą sieć światłowodową w miastach i między miastami”, mówi. „Moglibyśmy przekształcić te bardzo gęste sieci w macierze sejsmiczne, których moglibyśmy używać do wczesnego ostrzegania”.

Centra danych na orbicie okołoziemskiej

Według opinii informatyków i fizyków z Doliny Krzemowej, zapotrzebowanie na energię sztucznej inteligencji przerasta, lub szybko przerośnie,  światowe możliwości energetyczne. Centra danych będą odpowiadać za prawie połowę wzrostu zapotrzebowania na energię elektryczną w USA do 2030 roku, a ich globalne zapotrzebowanie na energię może się podwoić do końca tej dekady, ponieważ firmy będą szkolić większe modele sztucznej inteligencji. Lokalne rządy zaczynają mieć wątpliwości w wydawaniu zgody na instalowanie  nowych farm serwerów, które zajmują duże obszary, obciążają w dużym stopniu sieci energetyczne i zużywają ogromne ilości wody do chłodzenia.   

Wśród wielu rozwiązań proponowanych w celu przezwyciężenia wspomnianych trudności jest też pomysł przeniesienia działalności centrów danych z ziemi na orbitę okołoziemską. Orbitalne centra danych mogłyby działać na praktycznie nieograniczonej energii słonecznej, bez zakłóceń spowodowanych zachmurzonym niebem czy nocną ciemnością. Pomysł zakłada, że ​​jeśli budowanie większych centrów danych na Ziemi staje się coraz trudniejsze, rozwiązaniem może być przeniesienie w kosmos jednych z najbardziej energochłonnych komputerów. Jednak takie orbitalne centra danych nie staną się opłacalne, dopóki koszty wystrzeliwania rakiet nie spadną znacząco – a niezależni eksperci ostrzegają, że mogą one mieć jeszcze poważniejsze skutki dla środowiska i klimatu niż ich ziemskie odpowiedniki. Na początku listopada Google ogłosiło projekt Suncatcher, którego celem jest wystrzelenie konstelacji satelitów zasilanych energią słoneczną, wyposażonych w specjalistyczne układy AI. Misja demonstracyjna planowana jest na 2027 rok. Mniej więcej w tym samym czasie startup Starcloud świętował wystrzelenie 60-kilogramowego satelity z procesorem graficznym NVIDIA H100, co stanowiło wstęp do budowy orbitalnego centrum danych, które do 2035 roku ma być obliczone na pobór energii elektrycznej o mocy 5 GW (https://www.blackridgeresearch.com/blog/data-centers-in-space).

Źródło: https://www.blackridgeresearch.com/blog/data-centers-in-space.

Te dwa przedsięwzięcia wpisują się w szerszą falę koncepcji, które przenoszą część obliczeń poza planetę. Chiny rozpoczęły wystrzeliwanie statków kosmicznych dla konstelacji „kosmicznego centrum danych” Xingshidai, a Unia Europejska bada podobne pomysły w ramach projektu ASCEND (https://ascend-horizon.eu/testimonies/) .

„Orbitalne centra danych korzystałyby z ciągłej energii słonecznej, generowanej przez układy ogniw fotowoltaicznych” – mówi Benjamin Lee, architekt komputerowy i inżynier z Uniwersytetu Pensylwanii. „Mogłoby to rozwiązać długotrwałe problemy związane z zasilaniem obliczeń w centrach danych w sposób energooszczędny”. Większość propozycji zakłada orbitalne centra danych, które znajdowałyby się na orbicie synchronicznej ze słońcem, od świtu do zmierzchu, pokrywającej się z granicą między dniem a nocą na Ziemi, dzięki czemu ich panele słoneczne otrzymywałyby niemal stałe światło słoneczne i uzyskiwałyby przewagę wydajności poza atmosferą ziemską.

Jednak te same czynniki fizyczne, które sprawiają, że orbitalne centra danych są atrakcyjne, stwarzają również nowe problemy inżynieryjne, mówi Lee. Ich sprzęt komputerowy musi być chroniony przed wysokim promieniowaniem za pomocą ekranów lub oprogramowania korygującego błędy. Aby się schłodzić, platformy orbitalne potrzebują dużych radiatorów, które mogą odprowadzać ciepło w próżnię kosmiczną, zwiększając tym samym znaczną masę, którą trzeba wystrzelić rakietami.

Wszystkie te plany ostatecznie kolidują z jednym uporczywym ograniczeniem: wyniesieniem sprzętu w kosmos. Same koszty startów rakiet stanowią poważne wyzwanie dla budowy dużych orbitalnych centrów danych, nie wspominając o konieczności wymiany układów scalonych co pięć do sześciu lat. „Koszty startów spadają dzięki rakietom wielokrotnego użytku, ale nadal potrzebowalibyśmy bardzo dużej liczby startów, aby zbudować orbitalne centra danych konkurencyjne wobec tych na Ziemi” – mówi Lee. Zespół Suncatcher firmy Google szacuje, że koszty startu musiałyby spaść poniżej 200 dolarów za kilogram do 2035 roku, aby ich wizja miała sens.

Nawet jeśli staną się ekonomicznie opłacalne, orbitalne centra danych mogą generować dodatkowe koszty zrównoważonego rozwoju dla świata. Starcloud szacuje, że kosmiczne centrum danych zasilane energią słoneczną mogłoby osiągnąć dziesięciokrotnie niższą emisję dwutlenku węgla w porównaniu z naziemnym centrum danych zasilanym generatorami gazu ziemnego. Jednak naukowcy z Uniwersytetu Saary w Niemczech, którzy opublikowali artykuł zatytułowany „Dirty Bits in Low-Earth Orbit”, obliczyli, że orbitalne centrum danych zasilane energią słoneczną mogłoby nadal generować o rząd wielkości większe emisje niż centrum danych na Ziemi, biorąc pod uwagę emisje pochodzące ze startów rakiet i powrotu komponentów statku kosmicznego przez atmosferę. Większość tych dodatkowych emisji pochodzi ze spalania stopni rakiet i sprzętu podczas powrotu do atmosfery.  Proces ten powoduje powstawanie zanieczyszczeń, które mogą dodatkowo zubożyć ochronną warstwę ozonową Ziemi.

  Niezależnie od tych, i innych jeszcze nierozpoznanych, trudności Elon Musk, jak donoszą światowe media (BBC, 31 stycznia 2026, Reuters, 2 lutego 2026) przewiduje wysłanie na orbitę okołoziemską 1 milion (!) satelitów z centrami danych. Taka liczba obiektów na orbicie okołoziemskiej  mogłaby tworzyć zatory, o co zresztą już wielu astronomów oskarża sieć Starlinków, liczącą około 10 000 obiektów. Samantha Lawler, astronomka z University of Regina w Saskatchewan, zauważa, że takie projekty mogłyby pogłębić narastający problem kosmicznych śmieci, ponieważ wystrzeliwanych jest coraz więcej sprzętu, a zatem coraz więcej odłamków i fragmentów opada z powrotem do atmosfery (https://sentinelowl.blogspot.com/2026/02/14000-satellites-in-orbit-above-earth.html) .  

Dokładną analizę zysków i kosztów, związanych z wyniesieniem centrów danych w przestrzeń kosmiczną przeprowadza inżynier aeronautyczny, Andrew Mc Calip (https://andrewmccalip.com/space-datacenters).  Obliczenia, jakie przeprowadził wskazują, że w chwili obecnej koszt obsługi centrum danych na Ziemi wynosi 16 US$/W, a dla centrum danych umieszczonego na orbicie 51 US$/W. Koszty stacji satelitarnych obejmują 5-letnia opiekę eksploatacyjną stacji i jej wystrzelenie w kosmos.

Zespół Microsoftu tworzy „rewolucyjny” system przechowywania danych, który przetrwa tysiąclecia

Oprócz rozbudowanych centrów danych, współczesne systemy informatyczne  i sztuczna inteligencja potrzebują coraz większych i niedegenerujących się magazynów danych. W ramach tych poszukiwań naukowcy z Microsoftu stworzyli system przechowywania danych, który może zachować czytelność przez co najmniej 10 000 lat — a prawdopodobnie znacznie dłużej.

W tym celu wykorzystywane są  miniaturowe eksplozje plazmy do zakodowania treści równoważnej dwóm milionom książek w urządzeniu wielkości podstawki. Metoda ta pozwala przechowywać dane badawcze przez tysiąclecia przy minimalnych kosztach przechowywania.

W erze cyfrowej zapotrzebowanie na przechowywanie danych gwałtownie rośnie. Jednak obecne taśmy magnetyczne i dyski twarde nie nadają się do długoterminowego przechowywania danych, ponieważ ulegają degradacji po około dziesięciu latach. Rozwiązanie alternatywne oparte na szkle mogłoby „w zasadzie pełnić funkcję niemal trwałego archiwum do tworzenia kopii zapasowych krytycznych danych”, mówi Mark Bathe, biotechnolog z Massachusetts Institute of Technology w Cambridge.

Zespół Microsoftu użył lasera wysokoenergetycznego do wytłoczenia deformacji w trójwymiarowym kawałku szkła borokrzemowego, używanego  w naczyniach żaroodpornych. Każda deformacja koduje dane, które można odczytać pod mikroskopem.

Kwadrat szkła o szerokości 12 centymetrów i grubości 2 milimetrów może pomieścić 4,8 terabajta danych, co odpowiada około dwóm milionom książek, jak wykazali autorzy w artykule opublikowanym18 lutego w  Nature (https://www.nature.com/articles/s41586-025-10042-w).

Źródło: https://www.nature.com/articles/s41586-025-10042-w

Zapisywanie i odczytywanie danych jest znacznie bardziej skomplikowane niż otwieranie pliku na dysku twardym, ale informacje są znacznie bezpieczniejsze. Testy sugerują, że dane przetrwałyby 10 000 lat w temperaturze 290°C, a potencjalnie dziesiątki, a nawet setki razy dłużej w temperaturze pokojowej, mówi Richard Black, informatyk, który kierował inicjatywą znaną jako Project Silica w Microsoft Research w Cambridge w Wielkiej Brytanii.

Chociaż metoda szklana wymaga specjalistycznego sprzętu do zapisu i odczytu danych, artykuł pokazuje, że szklane przechowywanie danych wykroczyło poza eksperyment materiałowy i jest obecnie „wdrożeniowym systemem archiwizacji”, mówi Long Qian, biolog syntetyczny z Uniwersytetu Pekińskiego w Pekinie.

„Prezentując kompletny system… pokazali, jak ta technologia może prawdziwie zrewolucjonizować branżę centrów danych”, mówi Peter Kazansky, badacz optoelektroniki z Uniwersytetu w Southampton w Wielkiej Brytanii i były współpracownik Microsoftu w zakresie szklanego przechowywania danych.

Łyżka elektryczna zamiast dosypywania soli do potraw

W świecie, w którym coraz większą wagę przywiązuje się do zdrowia i diety, smakosze i eksperci ds. zdrowia poszukują inteligentniejszych sposobów na delektowanie się smakiem bez nadmiernego spożycia soli. Wiele problemów zdrowotnych, takich jak nadciśnienie, choroby serca i udar, wiąże się z nadmiernym spożyciem soli. Światowa Organizacja Zdrowia zaleca nie więcej niż 5 gramów soli dziennie, jednak średnia światowa jest znacznie wyższa. Ograniczenie spożycia soli dla wielu osób oznacza utratę smaku, co może być nie do przyjęcia dla wielu osób.

Rozwiązaniem jest elektryczna łyżeczka do soli, rewolucyjne rozwiązanie, które ma potencjał zmienić nasze odczucia smakowe.   Oferuje ona nowe rozwiązanie: głębszy smak bez dodawania ani uncji soli. To potencjalnie rewolucyjna opcja dla osób na diecie niskosodowej, a także dla każdego, kto po prostu chce cieszyć się zdrowszymi nawykami żywieniowymi, nie rezygnując przy tym ze smaku.

Opracowana w Japonii przez Kirin Holdings we współpracy z Uniwersytetem Meiji, elektryczna łyżeczka do soli ma na celu wzmocnienie słonego smaku potraw bez zwiększania spożycia sodu. Na pierwszy rzut oka może to brzmieć jak science fiction, ale ten niewielki wynalazek technologiczny ma poparcie w prawdziwej nauce i praktycznych innowacjach.

Źródło: https://www.kirinholdings.com/en/newsroom/release/2024/0520_01.html

Elektryczna łyżeczka do soli zapewnia delikatną stymulację elektryczną języka, oddziałując na kubki smakowe. Ten delikatny prąd wzmacnia jony sodu już obecne w jedzeniu, w zasadzie oszukując mózg i sprawiając, że odczuwa on intensywniejszy słony smak. Rezultatem jest bogatsze, pełniejsze doznania smakowe, nawet jeśli jedzenie ma mniej soli. Warto wspomnieć, że łyżeczka nie wywołuje żadnych nieprzyjemnych doznań – użytkownik twierdzi, że jest to całkowicie normalne, a wzmocnienie smaku to największa cecha wyróżniająca.

Chociaż technologia zastosowana w elektrycznej łyżeczce do soli jest fascynująca, to właśnie jej przeznaczenie czyni ją wartościową. Łyżka ta została stworzona z myślą o zdrowiu konsumenta. Nadmierne spożycie sodu nadal stanowi globalny problem, szczególnie w krajach takich jak Japonia, gdzie popularne są potrawy o wysokiej zawartości sodu, takie jak zupa miso, ramen i marynowane warzywa.

Elektryczna łyżeczka została stworzona z myślą o osobach, które kochają te tradycyjne smaki, ale muszą ograniczyć spożycie sodu ze względu na stan zdrowia. Wyniki wstępnych testów są obiecujące, a użytkownicy twierdzą, że mogą jeść te same potrawy, które lubią, ale z mniejszą ilością soli i bez poczucia winy.