Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Robert Curtis z Petrel Biosensors – odnogi Woods Hole Oceanographic Institution – opracował nową tanią metodę wykrywania zanieczyszczających wodę toksyn. Wystarczy wpuścić do niej pierwotniaki i obserwować ich sposób pływania.

Naukowiec wykorzystał fakt, że pierwotniaki są często pokryte rzęskami (łac. cilia). Związki rozpuszczone w wodzie mogą wpływać na transport wapnia do rzęsek, co oznacza, że różne substancje różnie zmieniają styl pływacki drobnych organizmów.

Amerykanie umieszczali Protozoa w roztworach testowych przygotowanych w oparciu o kilka rozpowszechnionych toksyn. Za pomocą kamer utrwalili wzorce przemieszczania się pierwotniaków. Teraz ekipa Curtisa pracuje nad urządzeniem, które na podstawie algorytmów dopasowuje sposób pływania do ewentualnej toksyny. Można zobaczyć unikatowe wzorce przemieszczania się, dlatego da się stwierdzić, czy jest to metal ciężki, czy toksyna fosfoorganiczna – podkreśla Curtis.

Urządzenie ma kosztować ok. 15 tys. dolarów, a zbadanie jednej próbki, co zajmie jedynie pół minuty, to wydatek rzędu 1-2 dolarów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Po raz pierwszy zaobserwowano, w czasie rzeczywistym i skali molekularnej, jak powstaje woda. Naukowcy z Northwestern University zarejestrowali łączenie się atomów wodoru i tlenu. Obserwacji dokonano w ramach badań, w czasie których uczeni chcieli zrozumieć działanie palladu jako katalizatora reakcji prowadzącej do powstawania wody.
      Uzyskanie wody za mocą palladu nie wymaga ekstremalnych warunków, zatem może być wykorzystane w praktyce do pozyskania wody tam, gdzie jest trudno dostępna. Na przykład na innych planetach. Przypomnijmy sobie Marka Watneya, granego przez Matta Damona w „Marsjaninie”. Spalał paliwo rakietowe, by uzyskać wodór, a następnie dodawał do niego tlen. Nasz proces jest bardzo podobny, ale nie potrzebujemy ognia i innych ekstremalnych warunków. Po prostu zmieszaliśmy pallad i gazy, mówi jeden z autorów badań, profesor Vinayak Dravid.
      O tym, że pallad może być katalizatorem do generowania wody, wiadomo od ponad 100 lat. To znane zjawisko, ale nigdy go w pełni nie rozumieliśmy, wyjaśnia doktorant Yukun Liu, główny autor badań. Młody uczony dodaje, że do zrozumienia tego procesu konieczne było połączenie analizy struktury w skali atomowej oraz bezpośredniej wizualizacji. Wizualizowanie całego procesu było zaś niemożliwe.
      Jednak w styczniu 2024 roku na łamach Science Advances profesor Dravid opisał nowatorką metodę analizowania molekuł gazu w czasie rzeczywistym. Uczony wraz z zespołem stworzyli ultracienką membranę ze szkła, która więzi molekuły gazu w reaktorach o strukturze plastra miodu. Uwięzione atomy można obserwować za pomocą transmisyjnego mikroskopu elektronowego w próżni wysokiej.
      Za pomocą nowej metody uczeni zaobserwowali, jak atomy wodoru wnikają do próbki palladu, rozszerzając jej sieć atomową. Po chwili – ku zaskoczeniu uczonych – na powierzchni palladu pojawiły się krople wody. Myślę, że to najmniejsze kiedykolwiek zaobserwowane krople. Tego się nie spodziewaliśmy. Na szczęście nagraliśmy to i możemy udowodnić, że nie oszaleliśmy, cieszy się Liu.
      Po potwierdzeniu, że pojawiła się woda, naukowcy zaczęli szukać sposobu na przyspieszenie reakcji. Zauważyli, że najszybciej zachodzi ona, gdy najpierw doda się wodór, później tlen. Atomy wodoru wciskają się między atomy palladu, rozszerzając próbkę. Gdy do całości zostaje dodany tlen, wodór opuszcza pallad, by połączyć się z tlenem, a próbka kurczy się do wcześniejszych rozmiarów.
      Badania prowadzone były w nanoskali, ale wykorzystanie większych kawałków palladu pozwoliłoby na uzyskanie większej ilości wody. Autorzy badań wyobrażają sobie, że w przyszłości astronauci mogliby zabierać ze sobą pallad wypełniony wodorem. Gdy będą potrzebowali wody, dodadzą tlen. Pallad jest drogi, ale nasza metoda go nie zużywa. Jedyne, co jest tutaj zużywane, to gaz. A wodór to najpowszechniej występujący gaz we wszechświecie. Po reakcji pallad można wykorzystywać ponownie, mówi Liu.
       


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ponad połowa największych jezior na świecie traci wodę, wynika z badań przeprowadzonych przez międzynarodowy zespół naukowy z USA, Francji i Arabii Saudyjskiej. Przyczynami tego stanu rzeczy są głównie globalne ocieplenie oraz niezrównoważona konsumpcja przez człowieka. Jednak, jak zauważają autorzy badań, dzięki opracowanej przez nich nowej metodzie szacunku zasobów wody, trendów oraz przyczyn jej ubywania, można dostarczyć osobom odpowiedzialnym za zarządzanie informacji, pozwalającymi na lepszą ochronę krytycznych źródeł wody.
      Przeprowadziliśmy pierwsze wszechstronne badania trendów oraz przyczyn zmian ilości wody w światowych jeziorach, wykorzystując w tym celu satelity oraz modele obliczeniowe, mówi główny autor badań, Fangfang Yao z Uniwersytetu Kalifornijskiego w Boulder (CU Boulder). Mamy dość dobre informacje o słynnych jeziorach, jak Morze Kaspijskie, Jezioro Aralskie czy Salton Sea, jeśli jednak chcemy dokonać szacunków w skali globalnej, potrzebujemy wiarygodnych informacji o poziomie wód i objętości jeziora. Dzięki tej nowej metodzie możemy szerzej spojrzeć na zmiany poziomu wód jezior w skali całej planety, dodaje profesor Balaji Rajagopalan z CU Boulder.
      Naukowcy wykorzystali 250 000 fotografii jezior wykonanych przez satelity w latach 1992–2020. Na ich podstawie obliczyli powierzchnię 1972 największych jezior na Ziemi. Użyli też długoterminowych danych z pomiarów poziomu wód z dziewięciu satelitów. W przypadku tych jezior, co do których brak było danych długoterminowych, wykorzystano pomiary wykorzystane za pomocą bardziej nowoczesnego sprzętu umieszczonego na satelitach. Dzięki połączeniu nowych danych z długoterminowymi trendami byli w stanie ocenić zmiany ilości wody w jeziorach na przestrzeni kilku dziesięcioleci.
      Badania pokazały, że 53% największych jezior na świecie traci wodę, a jej łączny ubytek jest 17-krotnie większy niż pojemność największego zbiornika na terenie USA, Lake Meads. Wynosi zatem około 560 km3 wody.
      Uczeni przyjrzeli się też przyczynom utraty tej wody. W przypadku około 100 wielkich jezior przyczynami były zmiany klimatu oraz konsumpcja przez człowieka. Dzięki tym badaniom naukowcy dopiero teraz dowiedzieli się, że za utratą wody w jeziorze Good-e-Zareh w Afganistanie czy Mar Chiquita w Argentynie stoją właśnie takie przyczyny. Wśród innych ważnych przyczyn naukowcy wymieniają też odkładanie się osadów. Odgrywa ono szczególnie ważną rolę w zbiornikach, które zostały napełnione przed 1992 rokiem. Tam zmniejszanie się poziomu wody jest spowodowane głównie zamuleniem.
      Podczas gdy w większości jezior i zbiorników wody jest coraz mniej, aż 24% z nich doświadczyło znacznych wzrostów ilości wody. Są to głównie zbiorniki znajdujące się na słabo zaludnionych terenach Tybetu i północnych części Wielkich Równin oraz nowe zbiorniki wybudowane w basenach Mekongu czy Nilu.
      Autorzy badań szacują, że około 2 miliardów ludzi mieszka na obszarach, gdzie w zbiornikach i jeziorach ubywa wody, co wskazuje na pilną potrzebę uwzględnienia takich elementów jak zmiany klimatu, konsumpcja przez człowieka czy zamulanie w prowadzonej polityce. Jeśli na przykład konsumpcja przez człowieka jest ważnym czynnikiem prowadzącym do utraty wody, trzeba wprowadzić mechanizmy, które ją ograniczą, mówi profesor Ben Livneh. Uczony przypomina jezioro Sevan w Armenii, w którym od 20 lat poziom wody rośnie. Autorzy badań łączą ten wzrost z wprowadzonymi i egzekwowanymi od początku wieku przepisami dotyczącymi sposobu korzystania z wód jeziora.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Specjaliści od biomechaniki z Cornell University obliczyli maksymalną wysokość, z jakiej możemy skoczyć do wody bez większego ryzyka wyrządzenia sobie krzywdy. Uwzględnili rodzaj skoku, a zatem to, która część ciała najpierw styka się z wodą. Woda jest 1000-krotnie gęstsza niż powietrze, więc skacząc przemieszczamy się z bardzo rzadkiego do bardzo gęstego medium, co wiąże się z silnym uderzeniem, mówi profesor Sunghwan Jung, główny autor artykułu opublikowanego na łamach Science Advances.
      Z eksperymentów wynika, że w przypadku osoby, która nie przeszła odpowiedniego treningu, skok do wody z wysokości ponad 8 metrów grozi uszkodzeniami kręgosłupa i karku w sytuacji, gdy jako pierwsza z wodą styka się głowa. Jeśli zaś skoczymy tak, by jako pierwsze z wodą zetknęły się dłonie, to przy skoku z wysokości ponad 12 metrów ryzykujemy uszkodzeniem obojczyka. Z kolei uszkodzenie kolana jest prawdopodobne przy skoku na stopy z wysokości ponad 15 metrów.
      Chcieliśmy sprawdzić, jak pozycja przy skoku do wody wpływa na ryzyko odniesienia obrażeń. Motywowała nas też chęć opracowania ogólnej teorii dotyczącej tego, jak obiekty o różnych kształtach wpadają do wody. Prowadziliśmy więc analizy zarówno kształtu ludzkiego ciała i różnych rodzajów skoków, jak i ciał zwierząt. Mierzyliśmy przy tym oddziałujące siły, dodaje Jung.
      Na potrzeby badań naukowcy wydrukowali trójwymiarowe modele ludzkiej głowy i tułowia, głowy morświna zwyczajnego, dzioba głuptaka zwyczajnego oraz łapy jaszczurki z rodzaju Basiliscus. W ten sposób mogli zbadać różne kształty podczas zetknięcia się z wodą. Wrzucali do niej swoje modele, mierzyli działające siły oraz ich rozkład w czasie. Brali pod uwagę wysokość, z jakiej modele wpadały do wody, a znając działające siły oraz wytrzymałość ludzkich kości, mięśni i ścięgien byli w stanie wyliczyć ryzyko związane ze skakaniem do wody z różnych wysokości. Biomechanika człowieka dysponuje olbrzymią literaturą dotyczącą urazów w wyniku upadków, szczególnie wśród osób starszych, oraz urazów sportowych. Nie znam jednak żadnej pracy dotyczącej urazów podczas skoków do wody, mówi profesor Jung.
      Badania dają nam też wiedzę na temat przystosowania się różnych gatunków zwierząt do nurkowania. Na przykład głuptak zwyczajny ma tak ukształtowany dziób, że może wpadać do wody z prędkością do 24 m/s czyli ponad 86 km/h. Jung i jego zespół od dłuższego czasu badana mechanikę nurkowania zwierząt. Obecnie naukowcy skupiają się na tym, jak lisy nurkują w śniegu.
      Jesteśmy dobrymi inżynierami. Potrafimy zbudować samolot i okręt podwodny. Ale przechodzenie pomiędzy różnymi ośrodkami, co sprawnie robią zwierzęta, nie jest łatwym zadaniem. A to bardzo interesująca kwestia. Inżynierowie chcieliby np. budować drony, które sprawnie poruszałyby się w powietrzu, a później wlatywały pod wodę. Może dzięki naszym badaniom wpadną na odpowiednie rozwiązania. My zaś próbujemy zrozumieć podstawy mechaniki, dodaje Jung.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Laboratorium Centralnym Katowickich Wodociągów pracują sommelierzy, którzy oceniają wodę pod kątem smaku i zapachu. Osoby te musiały przejść testy i szkolenie. Jak można się domyślić, by testy wody były wiarygodne, należy je prowadzić w specjalnych warunkach.
      Gdzie i jak pracuje sommelier od wody
      W pracowni analizy sensorycznej musi być zachowana temperatura 23 stopni Celsjusza, z tolerancją odchylenia wynoszącą 2 stopnie. Stanowiska, przy których sommelierzy przeprowadzają testy, są oddzielone od siebie boksami, pozbawione okien i wyposażone w oświetlenie, którego parametry określone są w normach. Wszystko po to, by nic ich nie rozpraszało i nie wpływało negatywnie na ich zdolności – wyjaśnia analityczka Laboratorium Centralnego Sylwia Morawiecka.
      Jak dodaje, godzinę przed analizą nie powinno się jeść ani używać perfum (dzięki temu nie zaburza się pracy receptorów węchowych i kubków smakowych). W pomieszczeniu, w którym pracują sommelierzy, przed badaniem włączane jest urządzenie pochłaniające wszelkie niepotrzebne zapachy.
      Analitycy określają, zgodnie z wymaganiami zawartymi w polskich normach, podstawowe smaki (słodki, słony, gorzki, metaliczny, kwaśny i umami) i zapachy (ziemisty i apteczny, stęchły/gnilny). Występowanie któregoś z nich nie wyklucza automatycznie przydatności do spożycia; intensywność musi się po prostu mieścić w przyjętych granicach (akceptowalnych dla konsumentów).
      Rozwiązywanie problemów
      Gdy woda zalega w sieci wewnętrznej budynku, jakość wody może się pogorszyć (smak i zapach stają się bardziej wyczuwalne). W takiej sytuacji zalecane jest odpuszczenie wody przed jej użyciem - wyjaśniono na stronie Urzędu Miasta Katowice.
      Zdarza się, że woda w budynku spełnia normy - nie jest skażona bakteriami i ma właściwe parametry mikrobiologiczne i chemiczne, a mimo to jej smak i zapach jest nieakceptowany przez klientów. Przyczyną może być zastanie wody w tym budynku lub stare, skorodowane rury. Sommelier w trakcie analizy smaku i zapachu niejednokrotnie jest w stanie określić, co jest powodem zmiany smaku i zapachu testowanej wody - tłumaczy cytowana przez PAP kierowniczka Laboratorium Centralnego Katowickich Wodociągów Anna Jędrusiak.
      Praca nie dla każdego
      Tylko ok. 50% chętnych ma właściwą wrażliwość sensoryczną. Na początku osoba zdobywająca upoważnienie do wykonywania badań oznaczania smaku i zapachu przechodzi testy. Jędrusiak wyjaśnia, że przygotowywane są „problematyczne” próbki. [...] Czekamy, czy [kandydat na sommeliera] określi, co jest nie tak. Potem jeszcze przechodzi szkolenie. Ale nawet osoba o takich kwalifikacjach ma pewne ograniczenia - może przebadać w jednej serii 6-8 próbek, potem wrażliwość spada, to zjawisko można też zaobserwować podczas wąchania perfum.
      Odnosząc się do pytania, czy sommelierem może zostać osoba paląca papierosy, Jędrusiak stwierdza, że choć nikt jest dyskryminowany, w praktyce palaczom trudniej przejść testy, bo ich wrażliwość jest nieco inna. Obecnie w zespole pracuje jedna osoba paląca.
      Z biegiem czasu i wzrostem doświadczenia zmysły się wyostrzają. Sylwia Morawiecka przyznaje, że zawsze potrafiła dobrze wyczuwać zapachy i smaki, ale dziś umie je oznaczyć na niższym poziomie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W sytuacji, gdy dochodzi do wykrycia uwolnienia substancji niebezpiecznych, najważniejsze jest szybkie i precyzyjne zlokalizowanie źródła uwolnienia oraz przewidzenie kierunku rozchodzenia się substancji. Używane obecnie modele dyspersyjne wymagają bardzo dużych zasobów obliczeniowych. Mogą jednak zostać zastąpione przez modele bazujące na Sztucznych Sieciach Neuronowych, SSN (ang. Artificial Neutral Networks, ANN), co pozwoli na monitorowanie skażenia w czasie rzeczywistym. W badaniu możliwości wykorzystania takich modeli uczestniczą naukowcy z Departamentu Układów Złożonych NCBJ.
      Obszar odpowiadający części centralnego Londynu, będący podstawą do przygotowania danych dla SSN, jak również wykorzystany w eksperymencie DAPPLE (skrzyżowanie Marylebone Road i Gloucester Place, 51.5218N 0.1597W)
      Od kilku lat w Centrum Analiz Zagrożeń MANHAZ prowadzone są prace nad algorytmami umożliwiającymi lokalizację źródła skażenia, w oparciu o, pochodzące z sieci detektorów, dane na temat stężeń uwolnionej substancji. Głównym zadaniem istniejących we wszystkich miastach grup reagowania kryzysowego, jest szybkie odpowiadanie na wszelkie zagrożenia dla ludzi i środowiska. Podstawowym czynnikiem decydującym o powodzeniu lub niepowodzeniu danego działania jest czas reakcji.
      Obecnie różne substancje chemiczne są używane w większości dziedzin przemysłu, co sprawia, że transport i przechowywanie materiałów toksycznych wiąże się z ciągłym ryzykiem uwolnienia ich do atmosfery i do zajścia skażenia. Dużym wyzwaniem są sytuacje, w których czujniki rozmieszczone na terenie miasta zgłaszają niezerowe stężenie niebezpiecznej substancji, której źródło nie jest znane. W takich przypadkach ważne jest, aby system był w stanie w czasie rzeczywistym oszacować najbardziej prawdopodobną lokalizację źródła zanieczyszczenia, wyłącznie w oparciu o dane o stężeniu, pochodzące z sieci czujników.
      Algorytmy, które radzą sobie z zadaniem można podzielić na dwie kategorie. Pierwszą są algorytmy opierające się na podejściu wstecznym, czyli analizie problemu zaczynając od jego ostatniego etapu, ale są one dedykowane obszarom otwartym lub problemowi w skali kontynentalnej. Drugą kategorię stanowią algorytmy, które bazują na próbkowaniu parametrów odpowiedniego modelu dyspersji (parametrów takich, jak lokalizacja źródła), aby wybrać ten, który daje najmniejszą różnicę między danymi wyjściowymi, a rzeczywistymi pomiarami stężeń, wykonywanymi przez sieć detektorów. Podejście to sprowadza się do wykorzystania algorytmów próbkowania, w celu znalezienia optymalnych parametrów modelu dyspersji, na podstawie porównania wyników modelu i detekcji zanieczyszczeń.
      Ze względu na efektywność zastosowanego algorytmu skanowania parametrów, każda rekonstrukcja wymaga wielokrotnych uruchomień modelu. Rekonstrukcja w terenie zurbanizowanym, która jest głównym przedmiotem zainteresowania badaczy, wymaga zaawansowanych modeli dyspersji, uwzględniających turbulencje pola wiatru wokół budynków. Najbardziej niezawodne i dokładne są modele obliczeniowej dynamiki płynów (ang. Computational Fluid Dynamics, CFD). Stanowią one jednak bardzo wymagające obliczeniowo wyzwanie. Musimy zdawać sobie sprawę z tego, że aby znaleźć najbardziej prawdopodobne źródło skażenia, model dyspersji trzeba uruchomić dziesiątki tysięcy razy. Oznacza to, że użyty model musi być szybki, aby można go było zastosować w systemie awaryjnym, pracującym w czasie rzeczywistym. Zakładając na przykład, że średni czas potrzebny na wykonanie samych obliczeń modelu dyspersji w terenie zurbanizowanym wynosi 10 minut, pełna rekonstrukcja z jego wykorzystaniem będzie trudna do przeprowadzenia w dopuszczalnie krótkim czasie.
      Rozwiązaniem tego problemu, nad którym pracuje dr Anna Wawrzyńczak-Szaban z Centrum Analiz Zagrożeń MANHAZ w NCBJ, przy współpracy z Instytutem Informatyki UPH w Siedlcach, jest wykorzystanie w systemie rekonstrukcji sztucznej sieci neuronowej, zamiast modelu dyspersji, w terenie zurbanizowanym. Chodzi o to, by sztuczna sieć neuronowa była skuteczna w symulacji transportu zanieczyszczeń w powietrzu, na terenie zurbanizowanym. Jeśli to się powiedzie, SSN może działać jako model dyspersji w systemie lokalizującym w czasie rzeczywistym źródło skażenia. Podstawową zaletą SSN jest bardzo krótki czas odpowiedzi – opisuje dr Anna Wawrzyńczak-Szaban. Oczywiście SSN musi być wytrenowana w stałej topologii miasta, przy użyciu rzeczywistych warunków meteorologicznych z wykorzystaniem odpowiedniego i zwalidowanego modelu dyspersji. Proces ten wymaga wielu symulacji, służących jako zestawy danych treningowych dla SSN. Proces uczenia sieci SSN jest kosztowny obliczeniowo, ale po przeszkoleniu, metoda byłaby szybkim narzędziem do szacowania stężeń punktowych dla danego źródła zanieczyszczenia.
      W pracy opublikowanej przez naukowców1) przedstawiono wyniki trenowania sieci neuronowej w oparciu o dane, uczące rozprzestrzeniania się toksyn w powietrzu w centrum Londynu, wykorzystując domenę testową eksperymentu polowego DAPPLE2). Dane uczące SSN wygenerowano za pomocą modelu dyspersji Quick Urban & Industrial Complex (QUIC). Przetestowaliśmy różne struktury SSN, czyli liczby jej warstw, neuronów i funkcji aktywacji. Wykonane testy potwierdziły, że wyszkolona SSN może w wystarczającym stopniu symulować turbulentny transport toksyn, unoszących się w powietrzu na obszarze silnie zurbanizowanym – objaśnia dr Anna Wawrzyńczak-Szaban. Ponadto pokazaliśmy, że wykorzystując SSN można skrócić czas odpowiedzi systemu rekonstrukcji. Czas wymagany, przez prezentowaną w pracy SSN, do oszacowania trzydziestominutowych stężeń gazu w 196 000 punktów sensorowych wyniósł 3 s W przypadku modelu QUIC, czas został oszacowany jako co najmniej 300 s, co daje nam 100-krotne przyspieszenie obliczeń. Biorąc to pod uwagę, czas rekonstrukcji w rzeczywistej sytuacji awaryjnej może być krótki, co skutkuje szybką lokalizacją źródła zanieczyszczenia.
      W trakcie badań okazało się, że zapewnienie trenowanej SSN pełnej informacji prowadzi czasami do pewnych wyzwań obliczeniowych. Na przykład w pojedynczej symulacji rozproszenia toksyn w powietrzu, na obszarze miejskim, nawet 90% odczytów z czujników może mieć wartość zerową. Prowadzi to do sytuacji, w której postać docelowa SSN obejmuje kilka procent wartości dodatnich i większość zer. W efekcie SSN skupia się na tym, czego jest więcej – na zerach, co sprawia, że nie dostosowuje się do szukanych elementów badanego problemu. Uwzględniając zerową wartość koncentracji w danych treningowych, musimy zmierzyć się z kilkoma pytaniami: jak uwzględnić zero? Jak przeskalować dany przedział, aby „ukryć” zera? Czy w ogóle uwzględniać zera? Czy ograniczyć ich liczbę? – podkreśla dr Wawrzyńczak-Szaban.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...