-
Similar Content
-
By KopalniaWiedzy.pl
Badania kamiennych narzędzi z południowych Chin dostarczyły najstarszych dowodów na zbieranie ryżu przez ludzi. Wynika z nich, że nasi przodkowie żywili się tym zbożem już 10 000 lat temu. Naukowcy z Dartmouth College zidentyfikowali dwie metody zbioru, które ułatwiły udomowienie ryżu.
Dziki ryż różni się od udomowionego tym, że jego nasiona, gdy dojrzeją, opadają na ziemię. W odmianach udomowionych pozostają one na roślinie. By zebrać ryż, wcześni rolnicy potrzebowali narzędzi, a gdy już je mieli, zbierali te rośliny, na których nasiona zostawały po dojrzewaniu. W ten sposób w uprawach rósł odsetek roślin, które nie zrzucały nasion i w ten sposób doszło do udomowienia ryżu.
Przez długi czas zastanawiano się, dlaczego nie znajdujemy w południowych Chinach narzędzi do uprawy ryżu pochodzących ze wczesnego neolitu, z czasów, o których wiemy, że uprawiano już ryż, mówi główny autor najnowszych badań, profesor antropologii Jiajing Wang. Na neolitycznych stanowiskach w dolnym biegu Jangcy znaleziono wiele odłupków o ostrych brzegach. Wysunęliśmy hipotezę, że być może niektóre z nich były używane do zbiorów ryżu, dodaje.
Naukowcy przeanalizowali 52 takie narzędzia pochodzące ze stanowisk najstarszych kultur Shangshan i Kuahuqiao. Odłupki nie były dobrze obrobione, ale miały ostre krawędzie, a ich przeciętna długość i szerokość wynosiła ok. 4 cm. Uczeni zajęli się analizą śladów zużycia i poszukiwali na nich fitolitów, krzemionkowych tworów powstających wewnątrz komórek roślinnych.
Analizy zużycia pokazały, że ślady pozostawione na 30 badanych narzędziach odpowiadają śladom powstającym podczas ścinania roślin bogatych w krzemionkę. Odłupki te były bardziej wypolerowane i miały lepiej zaokrąglone brzegi od narzędzi wykorzystywanych do obrabiania drewna czy cięcia tkanki zwierząt. Okazało się, że na 28 z tych narzędzi występowały fitolity pochodzące z ryżu.
Co interesujące, fitolity pochodzące z różnych części rośliny różnią się od siebie, co pozwoliło nam na określenie metody zbiórki, dodaje Wang. Ślady zużycia oraz fitolitów wskazywały, że neolityczni mieszkańcy południa Chin wykorzystywali dwie techniki zbiórki. Obie są zresztą wykorzystywane do dzisiaj. Jedna polega na odcinaniu lub zeskrobywaniu samych kłosów, a druga na odcinaniu, niczym sierpem, łodygi.
Okazało się, że na starszych narzędziach, pochodzących sprzed 10–8,2 tysięcy lat temu ślady zużycia oraz rodzaj fitolitów wskazują na wykorzystywanie pierwszej z technik, zatem odcinania lub zeskrobywania kłosów. Natomiast narzędzia młodsze sprzed 8–7 tysięcy lat nosiły ślady odcinania łodygi.
Druga z technik, przypominające użycie sierpa, była szerzej wykorzystywane, gdyż ryż został lepiej udomowiony i nasiona pozostawały na łodydze. Gdy odcinasz całą roślinę, na której trzymają się ziarna, masz i ziarna i liście z łodygami, których możesz użyć jako materiału opałowego, budowlanego i do innych celów. To bardziej efektywny sposób zbiórki, wyjaśnia Wang.
Technika odcinania/zeskrobywania kłosów pozwala wybiórczo pozyskiwać ryż przez dłuższy czas. Jest to dobra metoda tam, gdzie ryż nie dojrzewa jednocześnie. Zmniejsza ona też opadanie ziaren podczas zbioru, pozwalając na pozyskanie większej ilości pożywienia. Metoda sierpa zwiększa zaś tempo zbiorów, a łodygi i liście mogą zostać wykorzystane na opał czy jako pożywienie dla zwierząt.
Wybór techniki zbioru jest też głęboko zakorzeniona w duchowości. W wielu społecznościach Azji Południowo-Wschodniej technika pozyskiwania samych kłosów przetrwała długo po wprowadzeniu bardziej skutecznych narzędzi. Było to częściowo związane z wierzeniami, że w ten sposób chroni się duszę ryżu i zadowala boginię ryżu, dzięki czemu zbiory są obfitsze.
Niewiele wiadomo o życiu duchowym społeczności wczesnego neolitu w dolnym biegu Jangcy. Uczeni sądza jednak, że metoda zbioru miała wpływ na udomowienie ryżu. Dominujące wykorzystanie techniki odcinania czy zeskrobywania kłosów przez kulturę Shangha było prawdopodobnie adaptacją do siedlisk ryżu we wczesnym holocenie. Oryza rufipogen, przodek wschodnioazjatyckiego udomowionego ryżu, rośnie na bagnistych mokradłach. Ziarno dojrzewa tam nierówno i opada do wody. Eksperymenty pokazują, że bardzo trudno jest tam zbierać ryż metodą sierpa. Obcinanie kłosów jest znacznie bardziej efektywne. Tak prawdopodobnie było też w neolicie, na początkowych etapach udomawiania ryżu. Analizy wykazały bowiem, że w późnej fazie istnienia kultury Shangshan (9000–8400 lat temu) udomowiona odmiana nie zrzucająca ziaren stanowiła tam jedynie 8,7% całości upraw. Ludność kultury Shangshan miała więc do czynienia z nierównomiernie dojrzewającym ryżem pozbywającym się dojrzałych ziaren. Podczas zbiorów pozyskiwano więc same kłosy.
Rosnąca presja antropogeniczna za czasów kultury Kuahuqiao prawdopodobnie przyczyniła się do użycia metody sierpa. Przed około 8000 lat ludność Kuahuqiao opracowała system uprawy ryżu na trawiastych terenach podmokłych, kontrolując przepływ wody i selektywnie wypalając roślinność. W ten sposób mogło dojść do bardziej równomiernego dojrzewania ryżu i lepszego wzrostu, co umożliwiało ścinanie całych roślin.
Obie metody zbioru prowadziły zaś do pojawienia się nieświadomej presji selekcyjnej na ryż. Na początku procesu udomowienia tej rośliny zbiory musiały być powtarzane wielokrotnie w ciągu roku, a im później ich dokonywano, tym większy był odsetek ziarna z roślin niezrzucających nasion. Jeśli ziarno z późniejszych zbiorów było następnie wykorzystywane do zasiewów, to w ten sposób pojawiła się presja, w wyniku której doszło do wyselekcjonowania roślin, które nie zrzucały ziarna.
Symulacje wskazują, że używanie sierpa podczas zbiorów doprowadziłoby do bardzo szybkiej selekcji ryżu. Zakończyłaby się ona zaledwie w ciągu dwóch wieków. Tymczasem z danych archeobotanicznych wiemy, że proces udomowienia ryżu trwał około 5000 lat. Było to prawdopodobnie spowodowane czynnikami praktycznymi i kulturowymi. Bez odpowiedniej wiedzy ludzie mogli nie przechowywać ziaren z późniejszych zbiorów, by je wysiać, nie dokonywali celowego wyboru. Mogło to znacząco opóźnić udomowienie ryżu, tym bardziej, że przez tysiące lat nie stanowił on ważnego składnika diety, gdyż w dolnym biegu Jangcy istniało wiele bogatych źródeł pożywienia.
« powrót do artykułu -
By KopalniaWiedzy.pl
Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.
« powrót do artykułu -
By KopalniaWiedzy.pl
W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.
« powrót do artykułu -
By KopalniaWiedzy.pl
IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych.
Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim.
Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe.
Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych.
« powrót do artykułu -
By KopalniaWiedzy.pl
Uprawa ryżu przy takim stężeniu węgla w atmosferze, jaki możemy osiągnąć już w 2050 roku będzie oznaczała, że roślina ta straci od 17 do 30 procent zawartości witaminy B. Badania przeprowadzone przez Harvard T.H. Chan School of Public Health pokazują, jak zjawisko to narazi dziesiątki milionów ludzi na niedobory witamin, przede wszystkim tiaminy, ryboflawiny i kwasu foliowego.
Z badań wynika, że najbardziej dotknięci niedoborami będą mieszkańcy Afryki i Azji, których dieta jest w olbrzymiej mierze oparta na ryżu.
Okazuje się, że rosnące stężenie atmosferycznego CO2 spowoduje, że dodatkowe 132 miliony ludzi będą cierpiały na niedobór kwasu foliowego, 67 milionów więcej doświadczy niedoborów tiaminy, a niedobory ryboflawiny dotkną dodatkowych 40 milionów osób.
Naukowcy z Harvarda wyliczają, że same tylko niedobory kwasu foliowego u ciężarnych kobiet spowodują 0,5-procentowy wzrost liczby dzieci z wadą cewy nerwowej, co przełoży się na utratę dodatkowych 27 900 lat życia rocznie oraz dodatkowych 260 zgonów w roku. Wady cewy nerwowej to m.in. bezmózgowie czy przepukliny oponowo-rdzeniowe.
Jako, że zwiększone stężenie dwutlenku węgla spowoduje spadek wartości odżywczej wielu roślin uprawnych, należy spodziewać się, że na całym świecie nastąpi wzrost problemów zdrowotnych związanych z niedoborem witamin i innych składników odżywczych. Już wcześniejsze badania wykazały, iż dojdzie do zmniejszenia zawartości białka, żelaza i cynku w pszenicy oraz żelaza i cynku w soi oraz grochu.
Przed trzema miesiącami informowaliśmy o badaniach przeprowadzonych przez Chińską Akademię Nauk, której autorzy ostrzegli, że w warunkach wyższego stężenia CO2 spada zawartość azotu, potasu, wapnia, protein i aminokwasów w pszenicy.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.