Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Rozmieszczenie turbin i wielkość farmy wiatrowej decydują o jej wydajności
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Komputery kwantowe, gdy w końcu staną się rzeczywistością, mają poradzić sobie z obliczeniami niemożliwymi do wykonania przez komputery klasyczne w rozsądnym czasie. Powstaje pytanie, czy istnieje granica wydajności obliczeniowej komputerów kwantowych, a jeśli tak, to czy można ją będzie w przyszłości przesuwać czy też trzeba będzie wymyślić zupełnie nową technologię. Odpowiedzi na nie postanowili poszukać Einar Gabbassov, doktorant z Instytutu Obliczeń Kwantowych University of Waterloo i Perimeter Institute oraz profesor Achim Kempf z Wydziału Fizyki Informacji i Sztucznej Inteligencji University of Waterloo i Perimeter Institute. Ich praca na ten temat ukazała się na łamach Quantum Science and Technology.
Okazuje się, że jeśli komputer kwantowy ma rozwiązać jakiś problem, to jego złożoność przekłada się na bardziej złożone splątanie kwantowe. To oznacza, że problem obliczeniowy staje się rzeczywistością fizyczną, w której kubity zachowują się różnie w zależności od stopnia splątania. To, co było matematyką, zamienia się w fizykę z głównym problemem w postaci splątania kwantowego.
Najtrudniejsze z zadań obliczeniowych są klasyfikowane jako problemy NP-trudne. Nie mamy dowodów, że komputery kwantowe będą w stanie szybko poradzić sobie z każdym tego typu problemem, ale mamy wielkiej nadzieję, że tak się stanie. Żeby stworzyć algorytm kwantowy, który umożliwi przyspieszenie prac nad problemami NP-trudnymi, używa się klasyfikacji opisującej złożoność takich procesów w odniesieniu do rzeczywistości fizycznej. Często używa się analogii do krajobrazu. Profesor Kempf mówi, by wyobrazić sobie, że wyskakujemy z samolotu ze spadochronem i mamy za zadanie wylądować w najniższym punkcie okolicy. Tam znajdziemy skarb. W problemie łatwym mamy pod sobą krajobraz, w którym znajduje się jedna wyraźnie widoczna dolina z łagodnie opadającymi stokami. W problemie trudnym pod nami znajduje się teren poprzecinany wieloma dolinami, szczelinami i klifami. Ocena, gdzie należy się kierować jest niezwykle trudna. Komputer kwantowy pozwoliły na przeszukanie całego terenu jednocześnie i od razu wskazałby właściwy punkt lądowania. Jednak, by tego dokonać, splątanie między kubitami musi być tak złożone, jak krajobraz. To właśnie w splątaniu tkwi potęga obliczeń kwantowych.
Odkryliśmy, że trudne problemy matematyczne są tak trudne dlatego, że wymagają od komputerów kwantowych, by manipulowały, tworzyły i rozprzestrzeniały wewnątrz systemu wysoce złożone układy splątań. W miarę ewolucji systemu, kubity zaczynają tworzyć złożoną sieć. Związki pomiędzy nimi zmieniają się, przemieszczają, tworzące kubity cząstki tracą splątanie i na nowo się splątują. Trudne problemy wymagają ciągłych zmian tego typu, a to właśnie determinuje, jak szybkie mogą być obliczenia, wyjaśnia Gabbassov.
Obaj uczeni proponują w swoim artykule nowy sposób pomiaru prędkości rozwiązania dowolnego problemu w oparciu o wymagany stopień złożoności splątania kwantowego. Zaproponowana metoda została opracowana na potrzeby adiabatycznych maszyn kwantowych, jednak powinna działać też na innych typach maszy, więc można ją będzie szeroko stosować. Gabbassov i Kempf mają nadzieję, ze ich praca zainspiruje innych specjalistów, którzy wykorzystają ją na swoich polach specjalizacji. Myślę, że badania te przyspieszą pracę nad ekonomicznie opłacalnymi obliczeniami kwantowymi, stwierdził Kempf.
« powrót do artykułu -
przez KopalniaWiedzy.pl
CERN pochwalił się osiągnięciem przez Wielki Zderzacz Hadronów (LHC) rekordowej świetlności. Obok energii wiązki, w przypadku LHC maksymalna energia każdej z wiązek ma wynieść 7 TeV (teraelektronowoltów), to właśnie świetlność jest najważniejszym parametrem akceleratora. Zintegrowana świetlność to najbardziej interesujący fizyka parametr urządzenia. Oznacza ona liczbę zderzeń zachodzących w urządzeniu. A im więcej zderzeń, tym więcej danych dostarcza akcelerator.
Jednostką świetlności jest odwrócony barn (b-1) lub jego jednostki pochodne, jak femtobarny (fb-1). W trakcie pierwszej kampanii naukowej (Run 1), która prowadzona była w latach 2010–2012 średnia zintegrowana świetlność LHC wyniosła 29,2 fb-1. Przez kolejne lata akcelerator był remontowany i rozbudowywany. Druga kampania naukowa miała miejsce w latach 2015–2018. Wówczas, w ciągu czterech lat pracy, akcelerator osiągnął średnią zintegrowaną świetlnośc 159,8 fb-1.
Obecnie trwająca kampania, zaplanowana na lata 2022–2025, rozpoczęła się zgodnie z planem. W roku 2022 efektywny czas prowadzenia zderzeń protonów wyniósł 70,5 doby, a średnia zintegrowana świetlność osiągnęła poziom 0,56 fb-1 na dzień. W roku 2023 rozpoczęły się problemy. Niezbędne naprawy urządzenia zajmowały więcej czasu niż planowano i przez cały rok zderzenia protonów prowadzono jedynie przez 47,5 dnia, jednak średnia zintegrowana świetlność wyniosła 0,71 fb-1 na dzień.
Bieżący rok jest zaś wyjątkowy. Wydajność LHC przewyższyła oczekiwania. Do 2 września 2024 roku akcelerator zderzał protony łącznie przez 107 dni, osiągając przy tym średnią zintegrowaną jasność rzędu 0,83 fb-1 na dzień. Dzięki temu na kilka miesięcy przed końcem trzeciego roku obecnej kampanii naukowej jego średnia zintegrowana świetlność wyniosła 160,4 fb-1, jest zatem większa niż przez cztery lata poprzedniej kampanii.
W bieżącym roku LHC ma też przeprowadzać zderzenia jonów ołowiu. Zanim jednak do tego dojdzie, będzie przez 40 dni pracował z protonami. Powinno to zwiększyć jego zintegrowaną świetlność o koleje 33 fb-1. To o 12 fb-1 więcej niż zaplanowano na bieżący rok.
« powrót do artykułu -
przez KopalniaWiedzy.pl
ChatGPT od kilku miesięcy jest używany w codziennej pracy przez wiele osób i wciąż budzi skrajne emocje. Jedni podchodzą do niego entuzjastycznie, mówiąc o olbrzymiej pomocy, jaką udziela podczas tworzenia różnego rodzaju treści, inni obawiają się, że ta i podobne technologie odbiorą pracę wielu ludziom. Dwoje doktorantów ekonomii z MIT poinformowało na łamach Science o wynikach eksperymentu, w ramach którego sprawdzali, jak ChatGPT wpływa na tempo i jakość wykonywanej pracy.
Shakked Noy i Whitney Zhang poprosili o pomoc 453 marketingowców, analityków danych oraz innych profesjonalistów, którzy ukończyli koledż. Ich zadaniem było napisanie dwóch tekstów, jakich tworzenie jest częścią ich pracy zawodowej – relacji prasowej, raportu czy analizy. Połowa z badanych mogła przy drugim z zadań skorzystać z ChataGPT. Teksty były następnie oceniane przez innych profesjonalistów pracujących w tych samych zawodach. Każdy tekst oceniały 3 osoby, nadając mu od 1 do 7 punktów.
Okazało się, że osoby, które używały ChataGPT kończyły postawione przed nimi zadanie o 40% szybciej, a ich prace były średnio o 18% lepiej oceniane, niż osób, które z Chata nie korzystały. Ci, którzy już potrafili tworzyć wysokiej jakości treści, dzięki ChatowiGPT tworzyli je szybciej. Z kolei główną korzyścią dla słabszych pracowników było poprawienie jakości ich pracy.
ChatGPT jest bardzo dobry w tworzeniu tego typu treści, więc użycie go do zautomatyzowania pracy zaoszczędza sporo czasu. Jasnym jest, że to bardzo użyteczne narzędzie w pracy biurowej, będzie ono miało olbrzymi wpływ na strukturę zatrudnienia, mówi Noy.
Oceniający teksty nie sprawdzali jednak, czy ich treść jest prawdziwa. A warto podkreślić, że odpowiedzi generowane przez ChatGPT i inne podobne modele często są mało wiarygodne. Modele te są bowiem bardzo dobre w przekonującym prezentowaniu fałszywych informacji jako prawdziwe. Przypomnijmy, że w ubiegłym miesiącu sąd w Nowym Jorku nałożył grzywnę na firmę prawniczą, która użyła ChataGPT do sporządzenia opinii prawnej pełnej fałszywych cytatów z rzekomych wyroków sądowych. Co więcej, prawnicy byli tak pewni, że algorytm dobrze wykonał zadanie, iż upierali się, że cytaty są prawdziwe. Postęp technologiczny jest powszechny i nie ma niczego niewłaściwego w używaniu narzędzi sztucznej inteligencji. Jednak istniejące zasady nakazują prawnikom upewnienie się, że treści składanych przez nich dokumentów są prawdziwe, stwierdził sędzia Kevin Castel.
O ile zatem narzędzia takie jak ChatGPT mogą usprawnić pisanie tekstów czy podnieść ich jakość, to człowiek musi sprawdzić, czy w tekście zawarte zostały prawdziwe informacje.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Pozycjonowanie to szereg działań, które na celu mają zwiększenie widoczności strony www lub sklepu e-commerce w organicznych wynikach wyszukiwania. W dzisiejszym, cyfrowym świecie, gdzie miliony stron konkurują o uwagę użytkowników, efektywne SEO jest niezbędne. W naszym artykule omówimy kluczowe czynniki wpływające na SEO, w tym kwestie dotyczące wydajności strony, na przykład metrykę Contentful Paint (FCP) i inne.
Zapraszamy do zapoznania się z artykułem -agencja SEO/SEM 1stplace.pl.
Pozycjonowanie stron i sklepów e-commerce
Jak już wspominaliśmy powyżej, pozycjonowanie ma na celu poprawę widoczności strony w organicznych wynikach wyszukiwania. Wyższa pozycja w Google oznacza większą widoczność, więcej ruchu na stronie, a tym samym potencjalnie większe zyski.
Pomimo że podstawy pozycjonowania mogą wydawać się proste, cały proces wymaga specjalistycznej wiedzy i ciągłego monitorowania zmieniających się algorytmów wyszukiwarek. Właśnie dlatego, wiele firm decyduje się na skorzystanie z usług agencji e-marketingowej.
Agencje e-marketingowe, specjalizujące się w SEO, dysponują niezbędnym doświadczeniem i narzędziami do skutecznego pozycjonowania strony. Specjaliści opracują kompleksową strategię, obejmującą optymalizację on-site i off-site, przeprowadzają analizę słów kluczowych, przygotują treści. Skorzystanie z usług profesjonalnej agencji może przynieść wiele korzyści Twojej firmie.
Pozycjonowanie - działania on-site i off-site
Pozycjonowanie stron to proces, który obejmuje wiele różnych elementów i strategii. Zrozumienie, jak te elementy współgrają ze sobą, jest kluczowe dla uzyskania satysfakcjonujących efektów.
W procesie SEO mówimy o działaniach on-site i off-site.
On-page SEO
Działania on-page dotyczą prac przeprowadzanych bezpośrednio na stronie www. Są to elementy, które możesz kontrolować i optymalizować.
Zawartość: Google ceni unikalne, świeże i wartościowe treści, które są użyteczne dla użytkowników. Treści powinny być napisane w jasny i zrozumiały sposób, z użyciem odpowiednich słów kluczowych. Słowa kluczowe: Słowa kluczowe to ważny element pozycjonowania. Muszą być odpowiednio dobrane i używane w treści, metatagach i URLach. Dzięki temu zarówno roboty Google, jak i użytkownicy, zrozumieją tematykę strony. Meta tagi: Meta tagi, takie jak meta tytuł i opis meta, pomagają wyszukiwarkom (i użytkownikom), zrozumieć, co znajduje się na stronie. Meta dane powinny być unikalne dla każdej podstrony i zawierać odpowiednie słowa kluczowe. URL: Struktura URL powinna być jasna, zawierać słowa kluczowe, które pomagają zrozumieć, co znajduje się na danej podstronie. Szybkość ładowania strony: Wolno ładujące się strony mogą zniechęcić użytkowników, co poskutkuje wyższym współczynnikiem odrzuceń. Dlatego ważne jest, aby strona ładowała się szybko. Optymalizacja pod kątem urządzeń mobilnych: Liczba użytkowników korzystających z internetu za pomocą telefonów i tabletów wciąż wzrasta. Właśnie dlatego, optymalizacja strony pod kątem urządzeń mobilnych jest niezbędna. Strona powinna być responsywna, czyli dostosowywać swój wygląd i funkcje do rozmiaru ekranu urządzenia, na którym jest wyświetlana. Linki wewnętrzne: Linki prowadzące do różnych podstron w obrębie Twojej witryny pomagają w nawigacji, zwiększają crawl budget. Off-page SEO
Czynniki off-page odnoszą się do działań poza stroną. Jest to przede wszystkim linkowanie zewnętrzne. Backlinki, czyli linki z innych stron, prowadzące na Twoją witrynę, mogą znacznie poprawić pozycję strony. Google traktuje wartościowe odnośniki, jak głosy oddane na Twoją witrynę.
Czynniki wydajności strony www
Wydajność strony internetowej odnosi się do prędkości i płynności działania. Jest to kluczowa kwestia, wpływająca na wrażenia użytkowników, jak i na wyniki pozycjonowania.
First Contentful Paint (FCP) znaczenie i optymalizacja
First Contentful Paint (https://1stplace.pl/blog/first-contentful-paint-fcp-czym-jest-dlaczego-jest-wazny/) to metryka, która mierzy czas od rozpoczęcia ładowania strony do momentu, gdy pierwszy element (np. obrazek, tekst), jest renderowany na ekranie. Jest to kluczowy wskaźnik, stanowiący sygnał dla użytkownika, że strona się ładuje.
Wysokie wartości FCP mogą sugerować, że użytkownik przez dłuższy czas widzi pusty ekran. Może to prowadzić do frustracji i potencjalnie zniechęcić odwiedzającego do dalszego korzystania ze strony. Optymalizacja FCP jest więc niezbędna dla dobrej wydajności strony.
Inne czynniki wydajności strony www
Oprócz FCP istnieją inne metryki wydajności, które są ważne dla doświadczenia użytkownika i mogą wpływać na pozycjonowanie strony. Poniżej omawiamy metryki Core Web Vitals.
Largest Contentful Paint (LCP): Metryka mierzy czas ładowania największego elementu widocznego na stronie (grafiki, treści, video). Wysokie wartości LCP wskazują na problemy z wydajnością, które mogą wpływać na satysfakcję użytkownika. First Input Delay (FID): FID mierzy czas od momentu interakcji użytkownika ze stroną (np. kliknięcie przycisku), do momentu odpowiedzi na tę akcję. Wysoki FID może być frustrujący dla użytkowników, którzy oczekują natychmiastowej reakcji na swoje działania. Cumulative Layout Shift (CLS): CLS odnosi się do przesunięć elementów strony. Niezwiązane z intencją użytkownika przesunięcia elementów mogą być irytujące, prowadzić do przypadkowych kliknięć, a w konsekwencji do opuszczenia strony. Pamiętaj, że wszystkie te metryki są ściśle powiązane z doświadczeniem użytkownika. Im szybciej strona ładuje się i reaguje na interakcje, tym lepsze wrażenie robi na użytkownikach, co z kolei wpływa na SEO.
Optymalizacja metryk wydajności
Optymalizacja wymienionych metryk wydajności jest bardzo istotna. Pierwszym krokiem powinno być znalezienie i zrozumienie przyczyny problemów z wydajnością. Kolejny krok to podjęcie odpowiednich działań. Oto kilka strategii, które mogą pomóc:
Optymalizacja obrazów: Duże, ciężkie obrazy mogą spowolnić ładowanie strony. Warto kompresować obrazy, używać formatów obrazów nowej generacji, takich jak WebP, zastosować technikę ładowania leniwego (lazy loading). Optymalizacja kodu: Usuwanie niepotrzebnego kodu, optymalizacja plików CSS i JavaScript oraz optymalizacja porządku ładowania zasobów mogą przyspieszyć ładowanie strony. Unikanie dużej ilości reklam: Zbyt wiele reklam na stronie może spowolnić jej ładowanie i wpływać na metryki, takie jak CLS. Optymalizacja serwera: Wysokiej jakości, zaufany serwer to kolejny krok do sprawnie działającej witryny. Narzędzia do pomiaru wydajności strony
Istnieje wiele narzędzi, które pomagają mierzyć wydajność strony. Są to:
Google PageSpeed Insights to narzędzie od Google, które analizuje wydajność strony i daje sugestie dotyczące optymalizacji. Lighthouse to otwarte narzędzie do testowania wydajności, dostępności i innych aspektów stron internetowych. WebPageTest to kolejne popularne narzędzie, które pozwala na szczegółową analizę wydajności strony. Podsumowanie
Pozycjonowanie stron jest skomplikowanym procesem, który obejmuje wiele czynników. Działania on-page, off-page, wydajność strony, np. FCP, wszystko to ma wpływ na to, jak strona oceniana jest przez roboty i przez użytkowników.
Pamiętaj, że SEO to proces ciągły. Wymaga regularnego monitorowania i optymalizacji, aby strona pozostała konkurencyjna. Korzystanie z narzędzi do mierzenia wydajności strony może pomóc w zrozumieniu, jak strona działa i jakie elementy wymagają poprawy.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Amerykańscy naukowcy wykorzystali druk 3D do stworzenia nowego superstopu, który może pomóc w generowaniu większej ilości energii elektrycznej przy jednoczesnym zmniejszeniu emisji gazów cieplarnianych. Nowy materiał może przydać się też w przemyśle lotniczym, kosmicznym i samochodowym, a jego opracowanie to wskazówka, gdzie należy szukać nowej klasy nadstopów o bardzo pożądanych właściwościach.
Wykazaliśmy, że nasz materiał łączy niedostępne dotychczas cechy jak wysoka wytrzymałość, niska waga oraz odporność na wysokie temperatury, mówi Andrew Kustas z Sandia National Laboratories. Nowy materiał powstał we współpracy z Ames National Laboratory, Iowa State University i Bruker Corp.
Większość używanej energii elektrycznej wytwarzana jest w tradycyjnych elektrowniach wykorzystujących paliwa kopalne, bądź w elektrowniach atomowych. Oba te typy zakładów produkcyjnych wykorzystują ciepło, za pomocą którego obracane są turbiny wytwarzające elektryczność. Jednym z czynników ograniczających wydajność elektrowni jest wytrzymałość turbin na temperaturę.
Jeśli turbina może pracować przy wyższych temperaturach, większa część energii jest przekształcana na elektryczność, a zatem zmniejsza się ilość cepła odpadowego. Mniej energii jest marnowana, zatem cały proces jest bardziej wydajny, a wytworzenie tej samej ilości prądu wiąże się z mniejszą emisją gazów cieplarnianych.
Przeprowadzone w Sandia Labs eksperymenty wykazały, że nowy stop składający się z 42% z aluminium, 25% tytanu, 13% niobu, 8% cyrkonu, 8% molibdenu i 4% tantalu jest w temperaturze 800 stopni Celsjusza znacznie bardziej wytrzymały niż wiele innych stopów, w tym takich, wykorzystywanych do produkcji turbin. Jakby tego było mało, po schłodzeniu do temperatury pokojowej jego wytrzymałość jest nadal większa niż innych stopów.
Materiał taki może przydać się nie tylko w przemyśle produkcji energii. Lekkie wytrzymałe na temperaturę materiały są poszukiwane też przez przemysł lotniczy i samochodowy. Jego powstanie to również krok naprzód w produkcji stopów, gdyż żadna z jego części składowych nie stanowi więcej niż 50% stopu. Dla porównania, stal to około 98% żelaza i nieco węgla. Żelazo i szczypta węgla zmieniły świat. Mamy wiele przykładów udanych połączeń dwóch lub trzech materiałów. Teraz zaczynamy łączyć cztery, pięć i więcej pierwiastków w jeden stop. To interesujące, ale i trudne, wyzwanie z punktu widzenia metalurgii i materiałoznawstwa, stwierdza Kustas.
Teraz naukowcy chcą sprawdzić, czy zaawansowane modele obliczeniowe pomogą w odkryciu nowych superstopów wykazujących tak bardzo pożądane właściwości. To niezwykle złożone mieszaniny. Wszystkie te metale wchodzą w interakcje w skali mikroskopowej, nawet atomowej, i to te interakcje determinują wytrzymałość materiału, jego topliwość, temperaturę topnienia i wiele innych właściwości. Nasze modele już teraz pozwalają na wyliczenie wielu właściwości materiału jeszcze zanim ten materiał powstanie, mówi Michael Chandross, ekspert od modelowania komputerowego w skali atomowej.
Wynalazcy przyznają, że przed nimi jeszcze wiele wyzwań. Po pierwsze, prawdopodobnie trudno będzie wykonywać duże elementy z ich materiału bez pojawiania się mikroskopijnych pęknięć, które standardowo pojawiają się podczas wykorzystywania druku 3D. Po drugie zaś, materiały użyte do produkcji stopu są drogie, zatem prawdopodobnie nowy stop nie trafi do produktów konsumenckich. Jednak mimo tych problemów, jeśli uda się wdrożyć produkcję masową, może to oznaczać olbrzymi postęp, cieszy się Andrew.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.