Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Pozycjonowanie stron. Wydajność witryny a pozycja w Google
dodany przez
KopalniaWiedzy.pl, w Artykuły
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
CERN pochwalił się osiągnięciem przez Wielki Zderzacz Hadronów (LHC) rekordowej świetlności. Obok energii wiązki, w przypadku LHC maksymalna energia każdej z wiązek ma wynieść 7 TeV (teraelektronowoltów), to właśnie świetlność jest najważniejszym parametrem akceleratora. Zintegrowana świetlność to najbardziej interesujący fizyka parametr urządzenia. Oznacza ona liczbę zderzeń zachodzących w urządzeniu. A im więcej zderzeń, tym więcej danych dostarcza akcelerator.
Jednostką świetlności jest odwrócony barn (b-1) lub jego jednostki pochodne, jak femtobarny (fb-1). W trakcie pierwszej kampanii naukowej (Run 1), która prowadzona była w latach 2010–2012 średnia zintegrowana świetlność LHC wyniosła 29,2 fb-1. Przez kolejne lata akcelerator był remontowany i rozbudowywany. Druga kampania naukowa miała miejsce w latach 2015–2018. Wówczas, w ciągu czterech lat pracy, akcelerator osiągnął średnią zintegrowaną świetlnośc 159,8 fb-1.
Obecnie trwająca kampania, zaplanowana na lata 2022–2025, rozpoczęła się zgodnie z planem. W roku 2022 efektywny czas prowadzenia zderzeń protonów wyniósł 70,5 doby, a średnia zintegrowana świetlność osiągnęła poziom 0,56 fb-1 na dzień. W roku 2023 rozpoczęły się problemy. Niezbędne naprawy urządzenia zajmowały więcej czasu niż planowano i przez cały rok zderzenia protonów prowadzono jedynie przez 47,5 dnia, jednak średnia zintegrowana świetlność wyniosła 0,71 fb-1 na dzień.
Bieżący rok jest zaś wyjątkowy. Wydajność LHC przewyższyła oczekiwania. Do 2 września 2024 roku akcelerator zderzał protony łącznie przez 107 dni, osiągając przy tym średnią zintegrowaną jasność rzędu 0,83 fb-1 na dzień. Dzięki temu na kilka miesięcy przed końcem trzeciego roku obecnej kampanii naukowej jego średnia zintegrowana świetlność wyniosła 160,4 fb-1, jest zatem większa niż przez cztery lata poprzedniej kampanii.
W bieżącym roku LHC ma też przeprowadzać zderzenia jonów ołowiu. Zanim jednak do tego dojdzie, będzie przez 40 dni pracował z protonami. Powinno to zwiększyć jego zintegrowaną świetlność o koleje 33 fb-1. To o 12 fb-1 więcej niż zaplanowano na bieżący rok.
« powrót do artykułu -
przez KopalniaWiedzy.pl
ChatGPT od kilku miesięcy jest używany w codziennej pracy przez wiele osób i wciąż budzi skrajne emocje. Jedni podchodzą do niego entuzjastycznie, mówiąc o olbrzymiej pomocy, jaką udziela podczas tworzenia różnego rodzaju treści, inni obawiają się, że ta i podobne technologie odbiorą pracę wielu ludziom. Dwoje doktorantów ekonomii z MIT poinformowało na łamach Science o wynikach eksperymentu, w ramach którego sprawdzali, jak ChatGPT wpływa na tempo i jakość wykonywanej pracy.
Shakked Noy i Whitney Zhang poprosili o pomoc 453 marketingowców, analityków danych oraz innych profesjonalistów, którzy ukończyli koledż. Ich zadaniem było napisanie dwóch tekstów, jakich tworzenie jest częścią ich pracy zawodowej – relacji prasowej, raportu czy analizy. Połowa z badanych mogła przy drugim z zadań skorzystać z ChataGPT. Teksty były następnie oceniane przez innych profesjonalistów pracujących w tych samych zawodach. Każdy tekst oceniały 3 osoby, nadając mu od 1 do 7 punktów.
Okazało się, że osoby, które używały ChataGPT kończyły postawione przed nimi zadanie o 40% szybciej, a ich prace były średnio o 18% lepiej oceniane, niż osób, które z Chata nie korzystały. Ci, którzy już potrafili tworzyć wysokiej jakości treści, dzięki ChatowiGPT tworzyli je szybciej. Z kolei główną korzyścią dla słabszych pracowników było poprawienie jakości ich pracy.
ChatGPT jest bardzo dobry w tworzeniu tego typu treści, więc użycie go do zautomatyzowania pracy zaoszczędza sporo czasu. Jasnym jest, że to bardzo użyteczne narzędzie w pracy biurowej, będzie ono miało olbrzymi wpływ na strukturę zatrudnienia, mówi Noy.
Oceniający teksty nie sprawdzali jednak, czy ich treść jest prawdziwa. A warto podkreślić, że odpowiedzi generowane przez ChatGPT i inne podobne modele często są mało wiarygodne. Modele te są bowiem bardzo dobre w przekonującym prezentowaniu fałszywych informacji jako prawdziwe. Przypomnijmy, że w ubiegłym miesiącu sąd w Nowym Jorku nałożył grzywnę na firmę prawniczą, która użyła ChataGPT do sporządzenia opinii prawnej pełnej fałszywych cytatów z rzekomych wyroków sądowych. Co więcej, prawnicy byli tak pewni, że algorytm dobrze wykonał zadanie, iż upierali się, że cytaty są prawdziwe. Postęp technologiczny jest powszechny i nie ma niczego niewłaściwego w używaniu narzędzi sztucznej inteligencji. Jednak istniejące zasady nakazują prawnikom upewnienie się, że treści składanych przez nich dokumentów są prawdziwe, stwierdził sędzia Kevin Castel.
O ile zatem narzędzia takie jak ChatGPT mogą usprawnić pisanie tekstów czy podnieść ich jakość, to człowiek musi sprawdzić, czy w tekście zawarte zostały prawdziwe informacje.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Aby odnieść sukces w sprzedaży online, musimy zadbać o widoczność naszego sklepu w wyszukiwarce Google. Jak to zrobić? Należy podjąć działania, które pozytywnie wpłyną na jego optymalizację, jak tworzenie unikatowych opisów produktów i kategorii, stosowanie odpowiednich fraz kluczowych, blokowanie spamu itd. Niektóre z praktyk SEO są jednak zakazane (niezgodne z regulaminem Google), a ich stosowanie może przynieść odwrotny efekt – nasz sklep spadnie w wynikach wyszukiwania lub zostanie zawieszony. Jakich działań unikać, gdy pozycjonujemy własny sklep internetowy?
SEO – czym jest i jakich działań dotyczy?
SEO (ang. Search Engine Optimization) to proces optymalizacji (pozycjonowania) danej witryny w wyszukiwarkach, składający się z szeregu działań (głównie technicznych), których wykonanie ma poprawić jej widoczność w internecie. Witrynę optymalizujemy pod wymagania narzędzi wyszukiwania (np. algorytmów Google). Dzięki optymalizacji SEO pozyskujemy ruch z organicznych (takich, za które nie płacimy) wyników wyszukiwania.
Odpowiednio prowadzony proces optymalizacji:
• umożliwia pozyskanie ruchu bez konieczności posiadania budżetu na kampanie,
• wpływa na bezpieczeństwo naszej witryny,
• pozwala wyświetlać się naszej stronie w najpopularniejszej wyszukiwarce – Google.
Możemy optymalizować wiele elementów witryny. Najważniejsze z nich to:
• tekst (np. opisy produktów, kategorii),
• układ witryny (dopasowanie wyglądu menu, linkowanie wewnętrzne),
• warstwa techniczna (dopasowanie wyglądu dla urządzeń mobilnych, szybkie ładowanie się strony sklepu, bezpieczeństwo witryny powiązane z certyfikatem SSL).
Pozycjonowanie SEO jest ważnym i niezbędnym działaniem wspierającym rozwój biznesu w sieci zwłaszcza, prowadząc własny sklep internetowy – wpływa na zwiększanie widoczności naszego sklepu internetowego w wyszukiwarce Google, a to prowadzi do pozyskania nowych klientów i wzrostu sprzedaży. Istnieją jednak praktyki, które są surowo zakazane przez regulamin wyszukiwarki. Wykrycie ich przez algorytm Google (roboty skanujące stronę), może doprowadzić do nałożenia kar, na przykład w postaci banu, który oznacza usunięcie sklepu z indeksu wyszukiwarki. W następstwie zanika ruch organiczny, który kierował użytkowników do sklepu. Czego zatem należy unikać podczas pozycjonowania własnego sklepu internetowego?
Własny sklep internetowy – zakazane praktyki w pozycjonowaniu
• Kopiowanie treści (duplicate content) to powielanie treści publikowanej pod kilkoma różnymi adresami URL. Według ustawień algorytmu Google, każda treść zamieszczona na stronie powinna być unikatowa i wartościowa – tych wytycznych nie spełnia skopiowany tekst. Duplikacja treści wpływa negatywnie na indeksowanie naszej strony w wyszukiwarce.
Wyróżniamy dwa rodzaje duplicate contentu: wewnętrzny (treść kopiowana w obrębie jednej witryny, np. sklepu internetowego) i zewnętrzny (treść kopiowana w obrębie wielu domen).
Przykłady wewnętrznego kopiowania treści w ramach jednej domeny:
• kopiowanie treści opisów produktów,
• kopiowanie opisów kategorii,
• brak przekierowania 301 w sytuacji, gdy zmieniliśmy adres URL (do jednej podstrony prowadzi kilka adresów URL).
Przykłady zewnętrznego kopiowania treści w obrębie wielu domen:
• powielanie opisów ze strony producenta,
• kopiowanie tekstów z innych witryn,
• kopiowanie fragmentów tekstu bez oznaczenia źródła.
Pamiętaj, że algorytm Google docenia oryginalne treści publikowane na stronie, podnosząc jej pozycję w rankingu wyszukiwarki. Kopiowanie przynosi efekt odwrotny – skup się więc na tworzeniu nowych tekstów.
Cloaking (ang. maskowanie) – zgodnie z definicją Google jest to „działanie, które polega na przedstawieniu wyszukiwarkom innych treści lub adresów URL niż użytkownikom”. Innymi słowy to sytuacja, gdy treść prezentowana robotom wyszukiwarki różni się od tej, która faktycznie widnieje na stronie. Cloaking ma za zadanie maskować prawdziwą zawartość witryny i oszukać algorytm Google w celu uzyskania wyższej pozycji w wyszukiwarce. Działanie opiera się na zgłoszeniu treści strony na podstawie adresów IP lub nagłówka HTTP User-Agent. Robot skanujący skrypt sklepu widzi inną wersję treści niż użytkownik. Cloaking wprowadza w błąd algorytm Google i użytkowników, dlatego jego wykrycie może skutkować bezpowrotnym usunięciem witryny z indeksacji Google.
Spam tworzony przez użytkowników strony – jeżeli w naszym sklepie internetowym pojawi się spam, wytworzony przez klientów lub roboty, może to spowodować podjęcie przez Google ręcznych działań wobec witryny. Problem z występowaniem spamu pojawia się głównie na nowo powstałych stronach, gdzie istnieje możliwość dodania przez użytkowników treści (np. komentarzy).
Przykładami spamu mogą być:
• spam w komentarzach na blogu,
• opinie produktów zawierające złośliwe linki lub treści niebędące opiniami.
Negatywne skutki spamu to m.in:
• pojawienie się treści o niskiej wartości, co może negatywnie wpłynąć na ranking całej witryny,
• pogorszenie się reputacji naszego sklepu internetowego przez wyświetlanie się szkodliwych treści, które mogą prowadzić użytkowników do witryn ze złośliwym oprogramowaniem lub wyłudzać informacje,
• spowolnienie działania całej witryny, wywołane przez niezamierzony ruch, który nie jest powiązany z jej tematyką.
Aby walczyć ze spamem, regularnie aktualizuj oprogramowanie sklepu, zablokuj możliwość automatycznego tworzenia kont użytkowników (np. przez wymóg weryfikacji za pomocą adresu e-mail) i włącz funkcję moderowania (publikowanie komentarzy dopiero po sprawdzeniu ich treści).
Ukryty tekst i linki – to kolejna forma ukrywania prawdziwych informacji przed użytkownikiem w celu optymalizacji strony internetowej. Operacje tego typu mogą zostać uznane za wprowadzające w błąd osoby korzystające z wyszukiwarki Google, co jest sprzeczne z jej regulaminem. Do takich działań należą:
• dodawanie treści pisanych białą czcionką na białym tle (niewidocznej dla użytkownika, ale odbieranej przez roboty wyszukiwarki),
• umieszczanie tekstu za obrazkiem,
• ustawianie zerowego rozmiaru czcionki,
• umieszczanie tekstu lub obrazków poza ekranem przy użyciu kodu CSS,
• ukrywanie linku poprzez powiązanie go z niewidocznym znakiem,
• usuwanie możliwości kliknięcia w link za pomocą kodu CSS.
Nadmiar słów kluczowych – jest to przesadne wypełnianie strony słowami lub frazami, na które chcemy pozycjonować nasz sklep w wyszukiwarce. Taka praktyka jest złym rozwiązaniem z dwóch powodów. Po pierwsze treść prezentuje się sztucznie i źle się ją czyta (zniechęca potencjalnych klientów), a po drugie algorytm Google uznaje ją za niezgodną z regulaminem, więc sklep staje się kandydatem do spadku w rankingu wyszukiwarki.
Przykład? „W swoim asortymencie posiadamy kubek ceramiczny. Kubek ceramiczny jest dobrym produktem, który oferuje nasza firma. Tani kubek ceramiczny! Jeśli myślisz o zakupie kubka ceramicznego skontaktuj się z naszymi specjalistami!”
Optymalizacja sklepu na losowo wybrane słowa kluczowe – błąd, który jest często popełniany przez właścicieli sklepów internetowych, polegający na nieodpowiednim dopasowaniu słów kluczowych do wyszukiwań klientów. Pozycjonowanie witryny nie może być przypadkowe – powinno opierać się na wybranych słowach kluczowych, powiązanych z naszym sklepem (takich, które mają potencjał do zdobycia wyższej pozycji w wyszukiwarce).
Optymalizacja strony z użyciem losowo wybranych słów kluczowych nie należy do zakazanych praktyk SEO, ale wpływa negatywnie na widoczność naszego sklepu w przeglądarce Google.
Korzystaj z dobrych praktyk SEO
Podczas prowadzenia sklepu internetowego należy dbać o jego pozycjonowanie w zgodzie z zalecanymi praktykami SEO. Powinniśmy skupić się przede wszystkim na prawidłowym działaniu witryny (szybkość ładowania strony, komfort korzystania ze strony, User Experience), optymalizacji meta tagów (meta description, tytuł strony, tekst alternatywny dla obrazów), bezpieczeństwie (certyfikat SSL), a także na publikowaniu ciekawej treści dla użytkownika. Korzystanie z zakazanych praktyk SEO jest kuszące, ponieważ może przynieść chwilowo pożądany skutek (nagły wzrost pozycji naszego sklepu w wyszukiwarce). Zapłacimy jednak za to działanie wysoką cenę (duży spadek ruchu organicznego, brak widoczności naszego sklepu na wybrane słowa kluczowe, a nawet nałożenie kary i usunięcie witryny).
« powrót do artykułu -
przez KopalniaWiedzy.pl
Zoptymalizowanie ustawienia turbin na farmie wiatrowej może znakomicie zwiększyć ilość produkowanej energii, jednak korzyści takie zauważymy w farmach nie przekraczających określonej wielkości, wynika z badań przeprowadzonych przez naukowców z Carnegie Institution for Science.
Nie od dzisiaj wiadomo, że wydajność turbin na farmach może być znacząco mniejsza niż pojedynczych turbin. Wydajność małych farm wiatrowych może wynosić ponad 10 W/m2, to przy wielkich instalacjach spada ona do 1 W/m2. Wynika to z faktu, że turbiny zmniejszają energię wiatru, który przez nie przechodzi. Ponadto wprowadzają też turbulencje, przez które kolejne turbiny w szeregu produkują mniej energii. To już wiadomo, jednak dotychczas nie badano, co kontroluje te zjawiska, mówi autor badań, Enrico Antonioni.On i Ken Caldeira wykorzystali modele dynamiki płynów do zbadania przepływu powietrza w okolicy turbin.
Najpierw przyjrzeli się indywidualnym turbinom. Później zaś symulowali pracę małych farm. Stwierdzili, że zmniejszenie zagęszczenia turbin na małej farmie, zwiększa wydajność pojedynczej turbiny. Okazało się jednak, że niezwykle ważne jest rozkład przestrzenny turbin. Ustawienie ich w szeregu lub naprzemiennie w stronę wiatru zwiększa moc wyjściową nawet o 56% w porównaniu z ustawieniem ich w kolumnie. Przy optymalnym ustawieniu turbin można wyprodukować 10, 20, a nawet 30 procent energii więcej, gdyż można zredukować interakcje pomiędzy turbinami, wyjaśnia Antonini.
Zyski z odpowiedniego rozmieszczenia turbin znikały jednak w miarę rozrastania się farm. Uczeni wykorzystali więc symulacje meteorologiczne dotyczące prędkości wiatru, by sprawdzić, dlaczego tak się dzieje. W niewielkich farmach przyczyną spadku wydajności turbin są turbulencje wywoływane przez turbiny sąsiednie. Temu zjawisku można zaradzić. Natomiast w dużych instalacjach prędkość wiatru jest obniżana przez zwiększony opór aerodynamiczny w całym regionie.
Co więcej, okazało się, że zaburzenia powodowane przez wielkie farmy wiatrowe mogą rozciągać się na przestrzeni dziesiątków kilometrów, negatywnie wpływając na inne farmy.
Generalnie rzecz biorąc, odpowiednie ustawienie turbin przestawało przynosić korzyści, gdy farma rozciągała się na ponad 30 kilometrów. Jednak, co interesujące, sporo zależało od... szerokości geograficznej. Farmy umieszczone dalej od równika mogły być większe zanim ich wydajność spadała. Było to związane z działaniem siły Coriolisa i jej wpływem na wiatr.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Gnu potrafią migrować w upale, nie pijąc nawet do 5 dni. Okazuje się, że zawdzięczają to m.in. superwydajnym mięśniom.
Kiedyś uważano, że gnu zatrzymują się każdego dnia u wodopoju. Gdy okazało się, że to nieprawda, brytyjsko-botswański zespół postanowił sprawdzić, jak antylopy, które wędrując, pokonują niekiedy 1900 km, tego dokonują.
Naukowcy znieczulili kilka osobników i pobrali próbki mięśni. Później działano na nie prądem, mierząc ilość wydzielanego ciepła. Ustalono, że ok. 62,6% energii zużywanej przez mięśnie przeznaczano na ruch, a tylko 1/3 ulegała stracie w postaci ciepła.
Autorzy publikacji z pisma Nature podkreślają, że wyższą wydajność osiągnęły tylko żółwie. Większość zwierząt ma o wiele mniej wydajne mięśnie, a średnia wynosi tylko 25%.
Dzięki superwydajnym mięśniom można pokonywać bez picia dłuższe trasy (mniejsza utrata ciepła oznacza, że do chłodzenia potrzeba mniej wody).
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.