Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Światowa Organizacja Handlu (World Trade Organization, WTO) dąży do globalnego zniesienia barier handlowych pomiędzy swoimi członkami. Temu służą kolejne rundy negocjacji. Kraje uboższe i rozwijające się są przeciwnikami całkowitej liberalizacji handlu i domagają się możliwości wprowadzania ceł ochronnych na importowane towary. To właśnie było przyczyną fiaska Rundy Doha - trwających od 2001 roku negocjacji na temat liberalizacji handlu w ramach WTO.

Państwa rozwijające się argumentują, że ich producentom potrzebna jest ochrona przez zbyt tanim importem. Domagają się zachowania możliwości wznawiania barier celnych w przypadku nagłego spadku cen na światowych rynkach lub zbyt dużego importu. Utrzymują, że jest to konieczne dla stabilizacji cen i ochrony gospodarki.

Tymczasem symulacja przeprowadzona na amerykańskim Purdue University dowodzi czegoś zupełnie przeciwnego. Naukowcy z tej uczelni, przy wykorzystaniu komputerowego modelu GTAP (Global Trade Analysis Project, model symulujący zależności światowej gospodarki) wykazali, że cła ochronne w rzeczywistości szkodzą gospodarce słabszych krajów i zamiast stabilizować ceny - powodują ich gwałtowne skoki w przypadku nagłych zmian na światowych rynkach. Zwiększają również koszty ponoszone przez najbiedniejszych.

W momencie, kiedy rodzimi producenci zawodzą i zwiększa się import a kraj rozwijający się wprowadza zwiększone cła ochronne, ceny produktów rosną. Zwiększają się ceny żywności a jeśli większa liczba krajów wprowadza podobne bariery celne, destabilizacji ulegają ceny na rynkach światowych.

Szczególnie wrażliwi na nagłe cła ochronne są eksporterzy z krajów rozwijających się. Ponieważ ich produkty z reguły są tańsze od światowej średniej, najmniejszy spadek cen na globalnym rynku zwraca bariery celny przeciw nim. Zamiast stabilizować przychody krajowych producentów, cła destabilizują je. Reasumując, importowe cła ochronne nie dają takich skutków, jakich oczekują ich zwolennicy, działają wręcz odwrotnie i bardzo szkodliwie.

Autorami studium, opublikowanego w najnowszym numerze World Bank Economic Review są Thomas Hertel, profesor ekonomii rolnej na Purdue University i dyrektor generalny projektu GTAP; Amanda Leister, doktorantka handlu międzynarodowego na wydziale ekonomii rolnej Purdue University oraz Will Martin z Banku Światowego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cła są potrzebne rządzącej klice. Zbyt tanie towary z zewnątrz psują tej klice interesy. Pieniądze z cła widać - a pieniędzy jakie by oszczędził konsument nie widać. Nie widać też zysków z przestawienia się krajowych producentów na produkty/usługi, na które byłby popyt na wolnym rynku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Każde cła szkodzą bo pomagają maskować nieefektywność.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Profesor Babak Ziaie z Purdue University jest autorem nowatorskiej pompy dostarczającej leki do organizmu. Jego urządzenie pozwoli chorym na samodzielne aplikowanie lekarstw, które do tej pory musiał ktoś im podawać.
      Obecnie substancje chemiczne - jak np. nikotyna - są podawane przez skórę, jednak metoda ta ma poważne ograniczenie. Znajduje ona zastosowanie tylko w przypadku tych nielicznych substancji, które są zbudowane z małych hydrofobowych molekuł. Tymczasem większość nowoczesnych lekarstw stworzonych jest z dużych molekuł, które przez skórę nie przejdą. Wielu z nich - na przykład środków stosowanych przy terapii nowotworów czy chorób autoimmunologicznych - nie można podać doustnie, gdyż nie przedostają się z układu pokarmowego do krwi.
      W takich przypadkach stosuje się zastrzyki, co jednak wymaga obecności przeszkolonej osoby.
      Profesor Ziaie postanowił umożliwić chorym samodzielne aplikowanie sobie leków za pośrednictwem plastrów zawierających dużą liczbę mikroigieł. Stosowanie plastrów jest bezbolesne, gdyż igły wbijają się na niewielką głębokość. Ponadto plaster po użyciu można odlepić i wyrzucić.
      Problemem pozostaje jednak sam mechanizm wstrzykiwania leków. Przy mikroigłach, których średnica wynosi zaledwie 20 mikronów, konieczne jest użycie pompy. Jednak dostępne na rynku miniaturowe pompy są zbyt skomplikowane, by można było wbudować je w plastry.
      Babak Ziaie wraz ze swoim zespołem, w skład którego wchodzili m.in. Charilaos Mousoulis i Manuel Ochoa, opracował prostą pompę, która jest aktywowana dotknięciem palca i nie wymaga korzystania z baterii. Pompa zawiera płyn, który wrze w temperaturze ludzkiego ciała. Wystarczy więc na 20-30 sekund przyłożyć palec do pompy, by pojawiła się para i wzrosło ciśnienie, które wypycha lekarstwo przez igły.
      Wspomniany płyn nie przedostaje się do organizmu, gdyż jest oddzielony od lekarstwa cienką membraną wykonaną z polidimetylosiloksanu.
      Testy nowej pompy zostały przeprowadzone z użyciem fluorowęglanów. Jak zauważył Ziaie do wypchnięcia lekarstwa przez mikroigły i wstrzyknięcia go w skórę potrzebna jest dość duża siła, rzędu kilku funtów na cal kwadratowy. Bardzo trudno jest znaleźć miniaturową pompę wytwarzającą taką siłę. Podczas eksperymentów z fluorowęglanem HFE-7000 uzyskano 4,87 psi (funtów na cal), a z FC-3284 - 2,24 psi.
      W najbliższej przyszłości uczeni chcą zbadać działanie swojej pompy z dołączonymi mikroigłami.
      Szczegóły prac zostaną zaprezentowane podczas 14. Międzynarodowej konferencji na temat miniaturowych systemów w chemii i naukach biologicznych, która odbędzie się w październiku w Groningen.
      Uczeni złożyli wniosek o opatentowanie swojej technologii.
    • przez KopalniaWiedzy.pl
      Uczniowie i studenci na całym świecie uczą się, że rozpad promieniotwórczy odbywa się ze stałą prędkością, dzięki czemu można wykorzystać węgiel C-14 do precyzyjnego datowania. Jednak naukowcy z dwóch renomowanych uczelni Stanford University i Purdue University sądzą, że rozpad nie jest równomierny, a wpływ na jego prędkość ma... Słońce.
      Profesor fizyki Ephraim Fischenbach z Purdue potrzebował długiej listy przypadkowo generowanych liczb. Uczeni używają ich do najróżniejszych obliczeń, jednak uzyskanie list jest bardzo trudne. Powinny to być bowiem liczby losowe, a więc na ich wybór nie powinno nic wpływać. Fischenbach postanowił zatem wykorzystać radioaktywne izotopy jako źródło liczb. Co prawda np. kawałek cezu-137 rozpada się - jak dotąd sądzono - ze stałą prędkością, jednak wiadomo, że do rozpadu poszczególnych atomów dochodzi w całkowicie nieprzewidywalny, przypadkowy sposób. Naukowiec chciał zatem wykorzystać materiał radioaktywny i licznik Geigera i notując czas upływający pomiędzy momentami rozpadu poszczególnych atomów uzyskać szereg przypadkowych liczb.
      Fischenbach chciał najpierw wybrać najlepszy materiał radioaktywny, więc wraz ze swoimi kolegami zaczął przeglądać publikacje na temat ich rozpadu. I odkryli znajdujące się w nich różnice w pomiarach.
      Naukowcy, zdumieni tym faktem, porównali dane zebrane przez amerykańskie Brookhaven National Laboratory oraz niemiecki Federalny Instytut Fizyki i Techniki. Tutaj czekała ich jeszcze większa niespodzianka. Okazało się bowiem, że tempo rozpadu zarówno krzemu-32 jak i radu-226 wykazywało sezonowe odchylenia. Latem rozpad pierwiastków był nieco szybszy niż zimą.
      Wszyscy myśleliśmy, że mamy tu do czynienia z błędami pomiarowymi [różne pory roku charakteryzują się przecież różną temperaturą czy wilgotnością, co może wpływać na instrumenty pomiarowe - red.], ponieważ byliśmy przekonani, że tempo rozpadu jest stałe - mówi emerytowany profesor fizyki, ekspert fizyki słońca Peter Sturrock ze Stanford University.
      Rozwiązanie zagadki nadeszło, przynajmniej częściowo, 13 grudnia 2006 roku, gdy w nocy w laboratorium Purdue University inżynier Jere Jenkins zanotowanł niewielkie spowolnienie tempa rozpadu manganu-54. Nastąpiło ono na 1,5 doby przed  pojawieniem się flary słonecznej.
      Uczeni opisali swoje spostrzeżenia i w kolejnych artykułach stwierdzili, że zmiany w tempie rozpadu izotopów związane są z ruchem obrotowym Słońca, a najbardziej prawdopodobną ich przyczyną jest wpływ neturin na izotopy. Zresztą sam Sturrock poradził kolegom z Purdue, by przyjrzeli się rozpadowi, a z pewnością stwierdzą, że zmiany następują co 28 dni.
      Tymczasem okazało się, że zmiany zachodzą co... 33 dni.
      To, jak uważa Sturrock wskazuje, wbrew intuicji, że wnętrze naszej gwiazdy - w którym zachodzą reakcje - wiruje wolniej niż jej obszar zewnętrzny.
      Jednak te spostrzeżenia nie wyjaśniają kolejnej, wielkiej tajemnicy. W jaki sposób neutrino miałyby wpływać na materiał radioaktywny na tyle, by zmienić tempo jego rozpadu.
      Z punktu widzenia standardowych teorii to nie ma sensu - mówi Fischbach. A Jenkins dodaje: Sugerujemy, że coś, co nie wchodzi w interakcje z niczym zmienia coś, co nie może być zmienione.
      Uczonym pozostaje więc do rozwiązania poważna zagadka. Albo nasza wiedza o neutrino wymaga weryfikacji, albo też na rozpad ma wpływ nieznana jeszcze cząstka.
    • przez KopalniaWiedzy.pl
      Metamateriały o ujemnym współczynniku załamania światła - dla osób, które nie pamiętają już dobrze szkolnych lekcji fizyki, nie brzmi to ciekawie. Ale wystarczy zrozumieć, co się za tym naukowym określeniem kryje, żeby poczuć się jak w bajce o czapce niewidce.
      Kiedy patrzymy na łyżeczkę włożoną do szklanki z herbatą, wydaje się ona złamana. Kiedy tę łyżeczkę wrzucimy do garnka z wodą, będzie nam się wydawało, że leży ona wyżej, niż faktycznie. To właśnie jest zjawisko załamania światła - światło (ale także każda fala elektromagnetyczna i każda fala w ogóle: na przykład dźwiękowa) zmienia swój kierunek podczas przechodzenia z jednego ośrodka do drugiego, na przykład z powietrza do wody i na odwrót. O tym jak bardzo łyżeczka będzie dla nas „wygięta" lub jak wysoko podnosi się dno naczynia z wodą, mówi nam współczynnik załamania dla danego materiału. Współczynnik równy jeden oznacza, że światło nie załamuje się wcale. Im jest większy, tym załamanie większe. Może on być, choć to zdarza się rzadko, mniejszy od jedności - wówczas łyżeczka „wygnie się" w drugą stronę a dno będzie niżej, zamiast wyżej.
      To właśnie temu zjawisku zawdzięczamy działanie soczewek a więc także lunet, teleskopów, obiektywów fotograficznych, itd. Materiały o współczynniku załamania mniejszym niż jeden są szczególnie przydatne w takich zastosowaniach i zawsze chętnie poszukuje się nowych.
      Stosunkowo niedawno wymyślono teoretycznie „metamateriały" - materiały, których współczynnik załamania światła jest mniejszy od zera. Wcześniej nie pomyślano by nawet, że coś takiego jest możliwe, bo jak by to działało? Łyżeczka zanurzona w takim metamateriale wydawałaby się wystawać z wody a dno wydawałoby się wyżej niż powierzchnia płynu. A jednak coś takiego jest możliwe!
       
      Cuda - niewidy
       
      Sama możliwość istnienia takich „cudownych" materiałów jest ekscytująca. Nowe rodzaje znacznie doskonalszych przyrządów optycznych: mikroskopy, teleskopy, lepsze obiektywy fotograficzne, komputery optyczne. Możliwe teoretycznie jest skonstruowanie materiału, który będzie dawał niewidzialność przedmiotom, wokół których się go owinie.
      Znając teoretycznie strukturę, jaka dawałaby te efekty, zaczęto prace. Na początku udało się stworzyć taki metamateriał działający jedynie dla promieniowania mikrofalowego. Było to w 2004 roku. To był dowód, że pomysł nie jest wyssany z palca. Z uzyskaniem tego samego dla światła widzialnego było trudniej. Powód jest prosty: im mniejsza długość fali, tym mniejsze muszą być elementy metamateriału. Dla mikrofal łatwo było stworzyć strukturę metalowych elementów o rozmiarze około centymetra. Dla światła widzialnego muszą one mieć poniżej 250 nanometrów...
      Odpowiedź jest oczywista: nanotechnologia. I rzeczywiście, już w 2005 roku powstały pierwsze metamateriały optyczne. Niestety, pochłaniały one tak dużą część światła, że nie nadawały się do żadnego praktycznego zastosowania. Były jedynie naukową ciekawostką.
      Trwające wiele lat prace na Uniwersytecie Purdue w amerykańskim stanie Indiana przyniosły wreszcie efekty. Naukowcy pracujący w uniwersyteckim Birck Nanotechnology Center osiągnęli przełom: metamateriał optyczny, który nie tylko przepuszcza większość padającego światła, ale może nawet służyć jako optyczny wzmacniacz.
      Opracowany materiał ma postać cienkiej, perforowanej błony. Składa się ona z warstwy tlenku aluminium pomiędzy dwiema warstwami srebra a całość ma strukturę sieci z otworami o średnicy około 100 nanometrów. Część tlenku aluminium jest wytrawiona i zastąpiona „czynnikiem wzmacniającym" w postaci kolorowego barwnika wymieszanego z klejem epoksydowym. To dzięki niemu osiągnięto efekt wzmacniania światła.
      Problemem było nie tylko znalezienie odpowiedniego materiału barwnikowego, ale również usunięcie jak największej części tlenkowo-aluminiowej błony bez zniszczenia jej struktury. Nowym pomysłem jest też umieszczenie tej warstwy wewnątrz błony - dzięki temu ma ona pięćdziesięciokrotnie lepsze właściwości, niż umieszczona na powierzchni, jak to robili inni naukowcy.
      Zmniejszenie współczynnika pochłaniania światła do milionowej części poprzedniej wartości i możliwość wzmacniania światła to przełom na drodze do praktycznych zastosowań. A tych będzie wiele: płaskie supersoczewki, mikroskopy optyczne pozwalające dostrzegać nici DNA, „koncentratory światła" w panelach słonecznych, nowe rodzaje czujników, układy przetwarzające dane optycznie, zamiast elektrycznie (czyli optyczne komputery), wreszcie materiały tak zakrzywiające światło, że stają się niewidoczne.
      Poza oczywistym doskonaleniem wynalazku i pracą nad przemysłowym wytwarzaniem - na co pewnie jeszcze poczekamy - autorzy studium planują zastąpić źródło światła źródłem prądu, analogicznym do półprzewodnikowych laserów.
      Głównymi autorami sukcesu są Hsiao-Kuan Yuan - doktorant Purdue, obecnie pracownik firmy Intel oraz Shumin Xiao, który kontynuuje prace. Współautorami są ponadto Vladimir P. Drachev, Alexander V. Kildishev, Xingjie Ni, Uday K. Chettiar oraz Vladimir M. Shalaev.
    • przez KopalniaWiedzy.pl
      Uczeni z Purdue University pracują nad nowym typem pompy ciepła, która może zainteresować mieszkańców wyjątkowo zimnych okolic. Dzięki nowemu urządzeniu ich rachunki za ogrzewanie mogą spaść nawet o 50 procent.
      Pompy ciepła zapewniają ogrzewanie zimą, a chłodzenie latem. Jednak nie sprawdzają się w bardzo niskich temperaturach. Nowy projekt ma zapewnić dobrą wydajność tego typu urządzeń nawet tam, gdzie jest bardzo zimno.
      James Brown, Eckhard Groll i Travis Horton mówią, że dzięki grantowi w wysokości 1,3 miliona dolarów są w stanie w ciągu najbliższych 3 lat przedstawić prototyp pompy, która w niskich temperaturach zapewni ogrzewanie o połowę taniej niż obecnie stosowane technologie.
      Pomysł amerykańskich uczonych polega na prostym zmodyfikowaniu konwencjonalnego cyklu pracy. Taka prosta modyfikacja pozwoli też usprawnić lodówki czy klimatyzatory.
      Standardowo cykl pracy składa się z czterech etapów: płyn chłodzący jest kompresowany, następnie skraplany, rozpręża się, paruje.
      Jedna z badanych propozycji zakłada wstrzyknięcie dużej ilości oleju podczas fazy kompresji. Olej ten miałby absorbować ciepło. Drugi pomysł to wstrzyknięcie podczas kompresji rozprężonego płynu chłodzącego. To zwiększy efektywność kompresji, a jednocześnie zmniejszy straty energii.
      Ochłodzenie płynu w czasie kompresji czyni go gęstszym, a to ważne, gdyż do skompresowania czegoś bardziej gęstego potrzeba mniej energii - mówi Braun.
    • przez KopalniaWiedzy.pl
      Profesor Ambroży Kleks z powieści Jana Brzechwy potrafił nadmuchiwać potrawy, żeby wykarmić całą gromadę uczniów, niestety, nadmuchane nie syciły porządnie i trzeba było dojadać. Podobną sztuczkę stosują niektórzy producenci żywności, czy właściciele barów, sztucznie powiększając swoje produkty. Skutek jest podobny. Matka natura też potrafi powiększać owoce, ale jej metoda jest naturalna i nieoszukana.
      Gala to dość popularna odmiana jabłek, nie wyróżniająca się niczym szczególnym. Peter Hirst, profesor ogrodnictwa na Uniwersytecie Purdue'a, odkrył jednak, że z z tej pospolitej odmiany znienacka wyewoluowała nowa. Jej cechy szczególne to, poza większą chrupkością, znacznie większe rozmiary: o 15% większa średnica i o 38% większa waga. Nowa odmiana, nazwana z racji gabarytów Grand Gala, powstała przypadkowo. Właściciel dużego sadu owocowego zauważył, że jedna gałąź drzewa rodzi znacznie większe owoce. Zaszczepił więc nią nowe drzewka, uzyskując zmodyfikowaną odmianę.
      Profesor Hirst zainteresował się tym zjawiskiem: możliwość wyhodowania owoców większych o kilkanaście - kilkadziesiąt procent to jak kamień filozoficzny sadownictwa, duże owoce uzyskują bowiem znacznie wyższe ceny. Nigdy bowiem wcześniej nie widział takich jabłek, które określił jako dziwaczny fenomen. Zwłaszcza, że ogryzek nowej odmiany jest tego samego rozmiaru, co w starej, przyrost masy w całości obejmuje miąższ owocu.
      Naukowiec postanowił odnaleźć gen odpowiadający za większy rozmiar. Do tej pory badania porównawcze różnych gatunków jabłek nic nie dawały, ponieważ nie zawsze w nich te same geny odpowiadają za te same cechy. Grand Gala, nowo powstała odmiana, dawała szansę na przełamanie tej bariery.
      Większy owoc jest zawsze skutkiem większej ilości komórek. Jednak szukając genu, odpowiadającego za zwiększony ich przyrost, prof. Hirst odkrył ze zdziwieniem, że nowa odmiana wcale nie posiada więcej komórek od starej! W jaki więc sposób Grand Gala osiąga większe rozmiary? Proste - jej komórki są większe.
      Proste, ale niespotykane. W normalny sposób żywe komórki powielają swoje DNA, rosną, a potem dzielą się i proces ten się powtarza. Komórki odmiany badanej przez Petera Hirsta, wskutek jakiegoś błędu, powielają DNA, ale nie dzielą się. Zamiast tego tylko rosną, wytwarzając więcej i więcej kopii DNA.
      Dzięki badaniom udało się wyizolować grupę genów odpowiedzialnych za tę ciekawą dysfunkcję. Ale chociaż możliwe byłoby dzięki temu stworzenie „nadmuchanych" odmian innych gatunków jabłek, profesor Hirst wątpi, żebyśmy zobaczyli takie mutanty w sklepach. Jak mówi, konsumenci wybierają te owoce, które wyglądają najładniej i najdoskonalej. Grand Gala tymczasem ma jedną wadę: jest nieco koślawe.
      Badania nad genami odpowiedzialnymi za rozmiar jabłek jednak trwają i być może pewnego dnia w sklepie zobaczymy niespotykanie duże jabłka. Być może będzie to zasługa prac, między innymi, profesora Petera Hirsta.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...