Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Rekiny z rodziny Orectolobidae prowadzą bentoniczny tryb życia. Oznacza to, że zwykle leżą na dnie i czekają, aż zjawi się ofiara: bezkręgowiec, głowonóg, ryba albo w przypadku większych gatunków inny rekin. Ponieważ na rafie niełatwo zaobserwować akt upolowania, o nawykach żywieniowych wnioskuje się na podstawie zawartości żołądka. W zeszłym roku po raz pierwszy udało się przyłapać łobegonga brodatego (Eucrossorhinus dasypogon) na gorącym uczynku - podczas pożerania rekina bambusowego (Chiloscyllium punctatum).

Pierwszego sierpnia 2011 r. Daniela Ceccarelli prowadziła ze współpracownikami podwodny spis ryb zamieszkujących rafę przybrzeżną Great Keppel Island. Zobaczyli łobegonga brodatego z głową rekina bambusowego w pysku. W ciągu półgodzinnej obserwacji ani Ch. punctatum nie zmienił pozycji, ani łobegong nie połknął bardziej ofiary. Biolodzy uważają, że proces zajmuje parę godzin. Zwierzęta nie różniły się za bardzo całkowitą długością, bo w przypadku łobegonga wynosiła ona ok. 125, a rekina bambusowego ok. 100 cm.

Wszystko wskazuje na to, że łobegongi są wszechstronnymi drapieżnikami. Choć na co dzień zadowalają się bezkręgowcami i drobnymi rybami, gdy nadarza się okazja, nie pogardzą innym rekinem. Jest to możliwe za sprawą ruchomego połączenia szczęk i skierowanych ku tyłowi ostrych zębów. Dzięki temu rekin jest w stanie przytrzymać przed połknięciem w całości nawet spory "kąsek".

Jak można się domyślić, opublikowane na łamach pisma Coral Reefs zdjęcia (dwa ujęcia z różnych pozycji) zrobiły prawdziwą furorę. Ich autorem jest Tom Mannering. Nic dziwnego, że rekin bambusowy nie spostrzegł w porę łobegonga, bo ten bardziej przypomina kawałki koralowców niż rybę. Kamuflaż spełnił więc swoją rolę...

Dr Daniela Ceccarelli jest ekologiem morskim. Ma duże doświadczenie w pracy w tropikalnych ekosystemach. Prowadziła nie tylko obserwacje, ale i eksperymenty terenowe na różnych rafach: od australijskiej Wielkiej Rafy Koralowej po zatokę Kimbe w Papui-Nowej Gwinei. Po ostatniej publikacji nie spoczęła na laurach i obecnie znowu podróżuje w celach naukowych.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Na University of Oxford powstaje oprogramowanie, które na podstawie wyglądu twarrzy ma rozpoznawać rzadkie choroby genetyczne. Choroby takie dotykają około 6% populacji, ale w większości przypadków pozostają nierozpoznane. Istnieją testy genetyczne pozwalające zdiagnozować częściej występujące schorzenia, takie jak np. zespół Downa. Jednak dla wielu chorób testy nie zostały opracowane, gdyż nie zidentyfikowano genów, które je powodują.
      W przypadku 30-40 procent osób cierpiących na schorzenia genetyczne pewne charakterystyczne cechy są widoczne na twarzach. I właśnie na tej podstawie lekarz może postawić diagnozę. Problem w tym, że niewielu medyków ma odpowiednie przygotowanie pozwalające na rozpoznanie chorób genetycznych na podstawie wyglądu twarzy. Z tego też powodu wiele osób nie ma przez całe lata postawionej prawidłowej diagnozy.
      Dlatego też Christoffer Nellaker i Andrew Zisserman z Oxfordu postanowili stworzyć oprogramowanie, które na podstawie zdjęcia będzie pomagało we wstępnej diagnostyce.
      Obaj naukowcy wykorzystali w swojej pracy 1363 publicznie dostępne zdjęcia osób cierpiących na osiem schorzeń genetycznych. Znalazły się wśród nich fotografie chorych na zespół Downa, zespół łamliwego chromosomu X czy progerię. Komputer uczył się identyfikować każdą z chorób na podstawie zestawu 36 cech twarzy, takich jak kształt oczu, ust, nosa czy brwi. „Automatycznie analizuje zdjęcie i skupia się na głównych cechach, z których tworzy opis twarzy podkreślając cechy odróżniające” - mówi Nellaker. Później opis taki jest przez komputer porównywany ze zdjęciami osób ze zdiagnozowanymi schorzeniami. Na tej podstawie maszyna wydaje swoją opinię i określa prawdopodobieństwo, z jaki dana osoba może cierpieć na któreś ze schorzeń.
      Skuteczność algorytmu zwiększa się wraz z wielkością bazy danych fotografii referencyjnych. W przypadku ośmiu schorzeń genetycznych, którymi obecnie się zajęto, baza danych dla każdej z nich wynosiła od 100 do 283 zdjęć osób ze zdiagnozowanymi chorobami. Testy wykazały, że maszyna rozpoznaje choroby z 93-procentową trafnością.
      Tak obiecujące wyniki skłoniły naukowców do rozszerzenia zestawu diagnozowanych chorób do 91. W bazie danych znajdują się obecnie 2754 zdjęcia osób, u których rozpoznano jedną z tych chorób. Na razie system nie podaje dokładnej diagnozy, jednak naukowcy szacują, że już w tej chwili ich algorytm potrafi właściwie rozpoznać chorobę z 30-krotnie większym prawdopodobieństwem niż przy losowym zgadywaniu. Na przykład na podstawie zdjęcia Abrahama Lincolna system uznał, że cierpiał on na zespół Marfana. Niektórzy historycy twierdzą, że prezydent rzeczywiście na to chorował. Zespół Marfana jest siódmą najczęściej występujących schorzeniem spośród 91, którymi zajmuje się algorytm.
      Nellaker przyznaje, że algorytm nie podaje 100-procentowo pewnych odpowiedzi, ale pozwala na znaczne zawężenie możliwości wyboru. Teoretycznie może być on używany do diagnozowania noworodków, jednak jego twórcy uważają, że będzie używany głównie do diagnozowania rodziców, którzy martwią się, iż mogliby swoim dzieciom przekazać jakieś schorzenia. Główną zaletą systemu będzie jego łatwa dostępność. Szczególnie przyda się on tam, gdzie testy genetyczne są niedostępne.
      Ma on też olbrzymią przewagę nad stworzonymi wcześniej systemami korzystającymi z obrazów 3D. Tworzenie takich obrazów jest trudne i kosztowne, a pacjent musi odwiedzić szpital, w którym obraz zostanie wykonany. System Nellakera i Zissermana potrzebuje jedynie cyfrowego zdjęcia twarzy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na University of Hertfordshire wykonano fotografię o najdłuższym czasie naświetlania w dziejach. Znaleziono ją wewnątrz puszki po piwie przyczepionej do kopuły Bayfordbury Observatory. Puszkę umieściła tam Regina Valkenborgh, a dzięki temu, że kobieta zapomniała o swoim eksperymencie, klisza naświetlała się przez 8 lat i 1 miesiąc.
      Wszystko zaczęło się w 2012 roku, kiedy Regina na potrzeby swojej pracy magisterskiej z dziedziny sztuk pięknych postanowiła wykonać fotografie bez użycia nowoczesnych technologii. Wykorzystała więc puszki po piwie, w których umieściła błonę fotograficzną, tworząc w ten sposób aparat otworkowy. Valkenborgh umieściła kilka takich puszek na kopule uniwersyteckiego obserwatorium.
      Próbowałam kilkukrotnie tej techniki w obserwatorium, jednak efekty nie były zachęcające. Zdjęcia były uszkodzone przez wilgoć, film się zwijał, wspomina po latach. Jednak najwyraźniej zapomniała zdjąć jednej z puszek. To łut szczęścia, że przez te lata fotografia pozostała nietknięta i David [konserwator zatrudniony w obserwatorium – red.] ją znalazł, mówi Valkenborgh, która jest obecnie technikiem fotografii w Barnet and Southgate College.
      Na wykonanej fotografii widzimy 2953 linie wyrysowane przez wędrujące po nieboskłonie Słońce. Świetnie pokazują one, jak nasza gwiazda zmienia wraz z porami roku pozycję nad horyzontem.
      Fotografia o długim czasie ekspozycji jest często używana do zilustrowania przemijania czasu. Dotychczas zdjęciem o najdłuższej ekspozycji była fotografia wykonana przez niemieckiego artystę Michael Wesely'ego, który naświetlał ją przez 4 lata i 8 miesięcy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Użytkownicy Windows 8 będą mogli zrezygnować z tradycyjnych haseł zabezpieczających na rzecz chronienia dostępu do danych za pomocą... obrazków i gestów. Zach Pace z Microsoftu zapewnia, że nowy system skróci czas wprowadzania hasła, a jednocześnie będzie równie bezpieczny jak dotychczasowe hasła alfanumeryczne.
      Jak wyjaśnił Pace, do zalogowania się wystarczy wybrane zdjęcie oraz gesty. Wybór gestów będzie ograniczony do trzech rodzajów: dotknięcia ekranu dotykowego, zakreślenia okręgu i narysowania linii pomiędzy obszarami zdjęcia. Aby się zalogować, na wybranym zdjęciu będziemy musieli wykonać odpowiednie gesty w odpowiedni sposób na odpowiednich obszarach zdjęcia. System zbada sposób wykonania gestów. Jeśli nawet odpowiednie gesty zostaną wykonane na wybranych przez nas wcześniej obszarach zdjęcia, a będą odbiegały od normy, logowanie nie zostanie przeprowadzone. Na każde ze zdjęć używanych do logowania system nałoży siatkę koordynat i na jej podstawie będzie sprawdzał, czy wykonane gesty nie odbiegają zbytnio od normy. Wystarczy źle wykonać jeden z gestów, by logowanie się nie udało. Oczywiście, jeśli np. najpierw narysujemy koło, a powinna być linia, to niezależnie od dokładności wykonania gestów, system odmówi zalogowania.
      Przy każdym logowaniu oprogramowanie będzie sprawdzało dokładność wykonania i porównywało ją z dokładnością poprzednich prób. Porównywanie ma na celu upewnienie się, że legalny użytkownik, który popełnił błędy, nie zostanie odcięty od swojego urządzenia.
      Podczas prac nad nowym systemem logowania Microsoft początkowo zakładał wykonywanie bardziej zróżnicowanych gestów, jednak stwierdził, że zbytnio wydłuża to czas logowania, ograniczył zatem gesty do trzech.
      Nowy system będzie funkcjonował obok tradycyjnych haseł. Użytkownik będzie mógł wybrać, czy korzysta z jednego z nich, z obu, czy też pozostawi swoje urządzenie niezabezpieczone.
    • By KopalniaWiedzy.pl
      Po raz pierwszy rozmieszczone przez rosyjski WWF aparaty z czujnikiem ruchu wykonały zdjęcia irbisów z Ałtaju. Dotąd naukowcy mogli monitorować pogłowie tych rzadkich kotów wyłącznie na podstawie tropów, odchodów, kępek sierści oraz śladów pazurów i zębów na drzewach.
      Jak można się domyślić, takie tropienie irbisów, zwanych także panterami śnieżnymi, wymaga wytrwałości i sprawności fizycznej, bo pracuje się na wysokości 4000 m n.p.m. Ponieważ mamy do czynienia z gatunkiem zagrożonym wyginięciem, pozostaje liczyć na łut szczęścia. Poza tym trzeba mieć naprawdę wprawne oko, ponieważ stare tropy irbisa łatwo pomylić ze śladami rysia bądź wilka.
      Od 26 do 30 października 10 aparatów zainstalowanych w rosyjskiej części Pasma Piotra Aleksandrowicza Czikaczewa wykonało szereg zdjęć irbisów. W listopadzie odkryła je ekspedycja, która miała doładować baterie. Ustalono, że na fotografiach pojawiają się dwa osobniki. Jeden został uchwycony w biały dzień, co nieco zaskoczyło ekspertów, bo pantery śnieżne wolą polować o zmierzchu.
      Aparaty znajdowały się zarówno w rosyjskiej, jak i mongolskiej części pasma. WWF podkreśla, że dzięki temu można śledzić różne części habitatu. To miejsce jest szczególnie ważne, bo pozostało w nim zaledwie 10-15 zwierząt, w dodatku badana populacja stanowi łącznik między panterami śnieżnym z Rosji i Mongolii.
    • By KopalniaWiedzy.pl
      Co znajduje się na zapadających w pamięć zdjęciach? Choć widoki są ładne, to nie one znajdują się na pierwszym miejscu w tej kategorii. Podczas badań pierwsze miejsce zajęły bowiem fotografie ludzi, a za nimi uplasowały się ujęcia wnętrz oraz obiektów wielkości człowieka.
      Przyjemność dla oka i zapamiętywalność to nie to samo – tłumaczy Phillip Isola z MIT-u. Dotąd sądzono, że zapamiętywalność obrazu jest czymś niedostępnym dla nauki, ponieważ pamięć wzrokowa bywa bardzo subiektywna. Ludzie sądzą, że nie można znaleźć niczego spójnego – dodaje prof. Aude Oliva. Po badaniach na setkach ludzi amerykański zespół udowodnił jednak, że można tu wykryć pewne prawidłowości. Zgodność ochotników była wręcz zadziwiająca. Bazując na uzyskanych wynikach, naukowcy opracowali komputerowy algorytm, który może uszeregować zdjęcia według ich zapadalności w pamięć.
      Podczas wcześniejszych studiów Oliva wykazała, że ludzki mózg może zapamiętać z dość drobnymi szczegółami tysiące obrazów. Nietrudno jednak stwierdzić, że nie wszystkie są zapamiętywane równie dobrze. Na potrzeby badań zespół z MIT-u stworzył kolekcję 10 tys. różnorodnych zdjęć. Wykorzystano program Amazona Mechanical Turk, który pozwala, by ludzie wykonywali różne zadania na własnych komputerach. Ochotnikom pokazano serię zdjęć. Część z nich się powtarzała. Wyświetlenie widzianej wcześniej fotografii należało zasygnalizować naciśnięciem guzika. Zapamiętywalność każdego zdjęcia określano, wyliczając, ile osób poprawnie rozpoznało je jako znane.
      Na końcu zespół Olivy poprosił wolontariuszy o stworzenie "mapy zapamiętywalności" każdego zdjęcia. Należało oznaczyć wszystkie obiekty na fotografii. Komputer analizował mapy, by określić, jakie obiekty/cechy (barwy, rozmieszczenie krawędzi itp.) sprawiają, że obraz zapada w pamięć.
      Choć pojawiły się, oczywiście, różnice indywidualne, ogólnie najlepiej zapamiętywano zdjęcia ludzi, a w dalszej kolejności przestrzeni dopasowanej wielkością do człowieka, np. alejek w sklepach, oraz zbliżenia obiektów. Najgorzej zapamiętywano krajobrazy, chyba że zawierały jakiś zaskakujący element, np. niecodziennie przycięty krzew czy kolorową rzeźbę.
      Komu przyda się wspomniany wcześniej algorytm? Wykorzystają go zapewne graficy czy osoby pracujące nad okładkami książek i magazynów. Isola myśli też nad stworzeniem aplikacji na iPhone'a, która od razu po zrobieniu zdjęcia informowałaby użytkownika, do jakiego stopnia jest ono zapamiętywalne. Nie można też zapominać o zastosowaniach klinicznych i badaniu np. deficytów pamięci wzrokowej w przebiegu różnych chorób.
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...