Skocz do zawartości
Forum Kopalni Wiedzy

peceed

Użytkownicy
  • Liczba zawartości

    1604
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    55

Zawartość dodana przez peceed

  1. Nie ma to żadnego znaczenia. Nawet zmiana w ciągu jednego dnia byłaby korzystna. Dzięki CO2 mamy 20% większe plony, na czym najbardziej korzystają kraje biedne. To bzdura do kwadratu. Ogromne lokalne nieliniowe zmiany nazywają się pogodą. Jeśli mówimy o klimacie, to wzrost temperatury nie jest problemem, z ogromnym naddatkiem został skompensowany przez większą odporność roślin na brak wody (więcej CO2 oznacza że rośliny tracą mniej wody w procesie oddychania). Nie zrobiło się za ciepło aby przestać mieszkać, a dobowe wahania temperatury są 10-20x razy większe od wzrostu temperatury związanego z ociepleniem. Migracje mogą zostać na przykład wywołane wirusową reklamą pani Merkel, która przed wyborami nieudolnie chciała naprawić kiepską wizerunkowo deportację nastolatki, ale nie przez globalne ocieplenie. Jak sobie kolega do w ogóle wyobraża, w skali dziennej mamy bardzo zgrubnie 30uK więcej z tego powodu i to ma spowodować nagłe przekroczenie jakiegoś progu na który zareagują nagle wszyscy ludzie? Migracje są wywołane przez wykładniczo rosnącą ilość biednych ludzi w krajach biednych, a hasło globalne ocieplenie ma służyć tylko i wyłącznie wzbudzaniu winy. Dotychczasowe zmiany klimatyczne są korzystne dla ludzi w skali globalnej. Jedyny problem do zaadresowania to poziom oceanów, ale to jak wspomniałem jest już kwestia niezależna od koncentracji CO2. Który ma półokres trwania w atmosferze na poziomie 7 lat, co oznacza że ustali się nowa równowaga proporcjonalna do tempa wyrzutu metanu w atmosferę. Nic z czym nie da się żyć. Do tego rozmarznięte grunty zaczynają też absorbowć CO2. Proponuję jednak dobrze nauczyć się polskiego a do tego czasu korzystać ze stron japońskojęzycznych. Ale w ramach budowania przyjaźni polsko-japońskie wyjaśnię, że w żadnym wypadku moje poglądy nie mogą być uznać za denialistyczne i nie odnosiłem się do wartości na wykresie. Jasne. Modele to mogą być niepewne wobec CO2 ale nie zmiany albedo która jest natychmiastowa i trywialna. Do tego my będziemy pewne wartości kontrolować a nie zastanawiać się co znowu narozrabiały motyle. W ciągu 100 lat na pewno opanujemy kontrolę pogody w skali planetarnej. Co ważne, nieliniowość zjawisk atmosferycznych jest naszym sojusznikiem, bo pozwala używać niewielkich wymuszeń do uzyskania dużych pożądanych efektów.
  2. W mojej wypowiedzi nie ma żadnego drugiego dna ani podtekstu, proszę rozumieć ją bezpośrednio jak każdy inny polski tekst.
  3. Serio? Klimatyczna histeria dotarła już na Wenus? Ale to tylko taki ładny wymyk. Piękny wykres odpowiednio podcięty aby jeszcze skuteczniej straszyć. Szkoda że nie stosuje się skali logarytmicznej na koncentrację dwutlenku węgla, zgodniejszej z fizyką efektu cieplarnianego. Zwykła wielomianowa interpolacja i ekstrapolacja też ma ogromną wartość naukową i bierze się ją pod uwagę. W przypadku modeli klimatycznych dokładne modele to te, które pokrywają się z danymi historycznymi, bo na ich podstawie powstały wszystkie bez wyjątku. Z czasem przestają się zgadzać, ale mając odpowiednio dużą populację wejściową mamy praktycznie zagwarantowane że jakieś się ostaną. Dlatego jeśli zatrudni się więcej małp do tworzenia modeli sukcesy klimatologii się zwiększają. Potem mając więcej danych tworzymy coraz "lepsze" modele na nowo, i zabawa rozpoczyna się od nowa. Niestety takie modele nie dają żadnej gwarancji na cokolwiek. Wystarczy przeanalizować oceny ECS podawane przez IPCC w ciągu ostatnich 25 lat. Znikoma poprawa niepewności (mogę nie być na bieżąco przez ostatnie 3 lata). Co świadczy o braku postępu pomimo setek miliardów wydawanych na dyscyplinę w tym czasie. Jesteśmy bardzo daleko od modeli które mogłyby odtwarzać zmiany klimatu "z zasad pierwszych", a tylko takie stanowią o realnym zrozumieniu tematu. Całkowicie nie. Po pierwsze nie wiemy w jakim stopniu jest to wpływ człowieka, po drugie wciąż nie znamy przyczyn z wystarczającą z naukowego punktu widzenia pewnością. Natomiast można zrobić z tym bardzo wiele, tylko nie w tak naiwny sposób jak jest to przedstawiane. Przede wszystkim ocieplenie klimatu i wzrost ilości CO2 jest dla nas i biosfery bardzo korzystny, jedynym problemem jest zmiana poziomów oceanów. A to da się dosyć prosto "naprawić" przez odpowiednie techniki geoinżynieryjne , jak użycie refleksyjnych powłok na wybranych obszarach oraz zasiewanie chmur. I co ważne, ograniczenia emisji nie są żądną alternatywą, bo poziomy morza były wyższe 10m przy poziomie CO2 mniejszym niż obecnie. To coś co jako ludzkość i tak musimy się nauczyć kontrolować, podobnie jak ochrona przed uderzeniami planetoid. I możemy. Obecny katastrofizm klimatyczny ma charakter kultu religijnego a ograniczenia w emisji CO2 przypominają składanie ofiar z ludzi w celu przebłagania bogów - są podejmowane nawet jeśli wiadomo że prowadzą do wzrostu emisji netto przez przeniesienie produkcji do BRIC. Histeria z powodu CO2 i wydatki z nią spowodowane spowodowały przykrycie wielu ważniejszych problemów dla ludzkości - osobiście byłem zaszokowany (w okresie Kioto) że nikt nie zajął się znacznie poważniejszym problemem śmieci wyrzucanych do oceanu (nie tylko plastików). Najbardziej oburzał mnie brak projektu zachowania jak największej ilości DNA ginących gatunków (tu chodzi o różnorodność alleli a nie zachowanie kilku parek). W chwili obecnej większe znaczenie od zabawy w ograniczenia emisji ma nawet ginięcie pszczół (w znacznej części spowodowane "smogiem EM").
  4. Gratuluję dedukcji na poziomie kawałów o milicjantach połączonej ze znakomitym zrozumieniem czytanego tekstu. To miło że ludzie jeszcze stosują znaczące pseudonimy.
  5. No chyba podałem bardzo ważny mechanizm - traktowanie jako bazy do liczenia podwojeń samego CO2 nie uwzględniającego pary wodnej z jej wariacją. To prawie tak, jabyśmy nazwali cześć CO2 gazem A a część gazem B i traktowali przyrosty gazu jako część B, potem traktując przyrosty temperatury od nich niezależnie. Dochodzenie do Bayesowskiej prawdy. Te które raczyły udostępnić swoje kody źródłowe. Absolutnie nie. Ostatnia katastrofa jakiej świat potrzebuje to obniżenie ilości CO2. A związku ze zdrowiem nie widzę.
  6. Jest za wysoka. Mój twardy limit to 2.0 ( z zastrzeżeniem że nie ma on charakteru uniwersalnego bo równowagowa czułość klimatu zmienia się wraz z... aktualnym klimatem). Kolega się teraz użala nad sobą? Może Facebook jeszcze potrzebuje moderatorów... To że symulacje pogodowe są chaotyczne akurat nie ma znaczenia gdy chcemy probabilistycznie wypróbkować możliwe scenariusze. Znacznie gorszym problemem jest niezupełność modeli, mogą istnieć mechanizmy które redukują wpływ CO2 do praktycznie zera i one nie są w żadnym wypadku wykluczone! Fiksacja na CO2 jest szkodliwa z naukowego punktu widzenia. Uprawianie nauki sprowadzono do bezmyślnego kopiowania kilku tricków stosowanych kiedyś przez osoby wybitne, w nadziei że osiągnie się podobne rezultaty:/ Co do klimatologii jest ona bardzo szczególnym przykładem spatologizowanej nauki, której finansowanie nie zależy od jakości wyników tylko stopnia wzbudzanego strachu. Więc zgodnie z logiką najwięcej pary idzie właśnie w taką działalność. A tymczasem poziom wody w interglacjałach bywał wiele metrów większy od obecnego przy znacznie niższym poziomie CO2. Przed niekompetencją. I nie chodzi o pdf. Ja się tym już nie zajmuję i nie zajmę z przyczyn zdrowotnych. Ale ilość dostępnych danych jak najbardziej wystarcza. To jest słabe upierać się, że nie jesteśmy w stanie policzyć prawidłowo wzrostu temperatury z powodu zwiększenia CO2 w skali tygodnia, a jednocześnie twierdzili że modele klimatyczne mają wartość. Natomiast wnioski o niemożliwości osiągnięcia większej czułości klimatycznej niż dla modelu suchego są jak najbardziej prawdziwe, bo wynikają z prostych ograniczeń fizycznych. Chodzi o to, że nie istnieje dodatnie silne sprzężenie zwrotne z powodu pary wodnej na skutek zwiększenia ilości CO2. Słabiej dotyczy to innych gazów cieplarnianych których widmo nie jest tak dobrze przykryte przez parę wodną. Woda ma kluczowe znaczenie w innym miejscu, przez formowanie lodu i zmianę albedo Ziemi. Te cudowne modele komputerowe są praktycznie bez wyjątku niestabilne numerycznie. Więc niezależnie od tego jak bardzo się przegrzewają, nie liczą tego co wydaje się, że liczą, ich twórcom. Oczywiście dalej można poprawiać parametry i uzyskiwać zgodność z danymi historycznymi, tylko fizyka w tym zanika.
  7. Jasne, z bajkowym ECS 2.37. Jedyne czym są te ćwiczenia to zabawy w tworzenie rosnących rodzin krzywych i wybranie tej która najlepiej pasuje do danych. Można parametryzować krzywe na bardzo wiele sposobów, dobierając współczynniki. Wciąż jest to dosyć naiwna ekstrapolacja danych. Dopiero gdy osiągnie się modelowanie klimatu przez symulowanie pogody, będzie można mówić o "fizycznym" modelu. Z 5 lat temu wymyśliłem inne podejście - użycie istniejących zapisów pogodowych do oszacowania wpływu wzrostu temperatury pod wpływem CO2. Otóż dzielimy ziemię na małe komórki i w każdej z nich szacujemy jak zwiększenie CO2 zwiększa temperaturę, traktując inne czynniki jako stałe. Reguła przekory sprawia, że ignorowanie potencjalnych sprzężeń zwrotnych da nam górne ograniczenie na nierównowagową czułość klimatu, tzn. wszystkie nieuwzględnione różnice w zmianie dynamiki atmosfery (poziom pogody) statystycznie zmniejszają przyrost temperatury. W już mokrych komórkach przyrost CO2 nie dużego znaczenia, bo bazą od której należy badać przyrost jest istniejąca tak czy inaczej para w powietrzu. Dlatego jedynie suche komórki zaobserwują pełne dogrzanie. Z takiej analizy wychodzi, że nie ma możliwości uzyskania większej nierównowagowej czułości klimatycznej niż w suchym modelu, czyli około 1.3 stopnia, a dokładne obliczenia mogą tylko obniżyć tę wartość. Nazywanie zwiększenia CO2 w powietrzu wymuszeniem jest nadużyciem semantycznym niezgodnym z fizyką zjawisk. Zwiększenie CO2 nie zwiększy istotnie ilości pary wodnej, bo ta w pierwszym rzędzie zależy bezpośrednio od pogody i nasłonecznienia, a gdy już się pojawia to wpływ przyrostu CO2 na przyrost jej ilości szybko maleje będąc na wstępie i tak drugorzędowym efektem.
  8. Odwołuję co pisałem - jakie modelowanie komputerow :/ Przeczytałem sobie całą pracę - straszne gówno. Klasyczny przykład w którym praca pokazuje coś innego niż twierdzi że pokazuje :/ Ostrzeżeniem powinien być już format pliku w którym powstało owo dzieło. Ale ważne że kolejny klimatyczny news poszedł...
  9. Czytałem o tym kilka lat temu i taki był rząd wielkości. Na prawie 50 lat badań i ilość wpompowanych środków - nie jest to wielkość nieprawdopodobna. Ale niechby byłoby to tylko 100 modeli - wciąż mówimy o wyborze tych najlepszych pod kątem dopasowania do danych historycznych. Z czasem większość z nich przestanie się zgadzać, jak stało się to z resztą. Jedyny realistyczny model klimatyczny to symulacja pogody w skali globalnej powtarzana tysiące razy, uwzględniająca dokładną fizykę atmosfery, lód i wodę. Każde inne podejście musi być mniejszą lub większą bajeczką, bo "omija" fizykę zjawiska i staje się prymitywną ekstrapolacją danych i założeń. 66k trafień w google scholar. Przy czym model nie musi być całkowicie nowym programem komputerowym, to jest program + tuning magicznych parametrów.
  10. Przyszłością operacji kardiologicznych (i nie tylko) są błyskawiczne operacje przeprowadzane przez roboty, około 100 razy szybsze i wciąż precyzyjniejsze od tego co potrafi człowiek.
  11. peceed

    Kto ogoli Russella?

    Na takie tematy był czas 90 lat temu przed Tarskim. To zdanie nie ma sensu, można je rozważać tylko jako skrót myślowy. Trzeba bardzo uważać gdy stara się ująć skomplikowaną rzeczywistość (skomplikowany model) w prostszym modelu. Myślenie przy pomocy języka prowadzi na manowce (ale każde "myślenie" w końcu wysiada). Przede wszystkim trzeba mieć świadomość, że wszystko co nas otacza jest tylko modelem probabilistycznym budowanym przez mózg na podstawie pobudzeń narządów zmysłów.
  12. To czego nie podano to fakt że wybrano 14 najlepszych modeli z około 10tyś. Więc ich zgodność może być tylko wynikiem przypadku a nie wynikiem jakości modelu fizycznego. Za 20 lat co najmniej kilka tych modeli będzie zweryfikowanych negatywnie.
  13. peceed

    Wszechświat jako symulacja

    1) są ograniczenie prawami fizyki tak samo jak my 2) podobno zwiększanie ilości uranu w skorupach planet pozwala zapobiec rozprzestrzenianiu się pleśni po kosmosie - z podręcznika budowniczych wszechświatów 3) prędkość światła jest skończona i dosyć mała w galaktycznej skali. 4) skoro jesteśmy w symulacji - teza, to założenie że wszechświat jest stary nie jest uprawnione. Elon nie jest zbytnio inteligentniejszy od swoich inwestorów.
  14. 1) Roboty z jednej strony obniżają pensje, z drugiej obniżają koszty towarów. Koszty towarów nie zależą w całości od pensji więc pensje będą maleć szybciej. 2) W końcu dojdziemy do poziomu, w którym humanoidalny (na potrzeby rozumowania) robot o praktycznej sprawności przekraczającej możliwości ludzi w każdej pracy będzie od ludzi tańszy. Wówczas można będzie zastąpić robotami wszystkich ludzi i praca ludzka stanie się efektywnie bezwartościowa (tzn. wsadzenie człowieka w dowolny proces będzie generować stratę). 3) Nasza linia gatunków używa narzędzi od kilku milionów lat, i praktycznie całą automatyzację można było rozpatrywać jako budowę coraz to bardziej zaawansowanych narzędzi. Do tego był potrzebny (pra)człowiek. Obecnie dochodzimy do momentu w którym człowiek jest zbędny w tym procesie. Nie można w nieskończoność ekstrapolować dotychczasowych doświadczeń, w przyrodzie w końcu dochodzi się do przemian fazowych. Robotyzacja jest socjologicznym analogiem przemiany fazowej. 4) Podstawą wszystkich dotychczasowych systemów gospodarczych jest silne założenie, że praca człowieka jest wartościowa. To założenie staje się błędne. Już teraz coraz więcej bogactwa wynika z tworzenia wszelkiego rodzaju własności które efektywnie są ograniczeniem dla innych jednostek. 5) Niezależnie od iluzji jakimi mogą się karmić, ludzie bogaci staną się tak samo zbędni jak menele. 6) Problem był wałkowany wielokrotnie przez futurystów i autorów s-f, w tej dziedzinie napisano już wszystko.
  15. Mamy więc "news" na temat leku który ma jakieś 14 lat. Do tego AQ-13 jest kolejnym farmaceutykiem który mutuje mtDNA i powoduje masę trwałych efektów ubocznych.
  16. "Ekologia" to wspaniałe studium przypadku dla wszystkich religioznawców, do tego do obejrzenia na żywo. Problemem we wszystkich wyliczeniach dla energetyki wiatrowej jest to, że o ile może ona dostarczać energię, to nie jest w stanie zagwarantować mocy i każda elektrownia wiatrowa musi mieć zapasowe źródło w postaci elektrowni konwencjonalnej, za które i tak trzeba zapłacić. Przedwczesne inwestowanie w energetykę odnawialną marnuje zasoby i efektywnie spowalnia postęp techniczny, lepiej ułamek tej kwoty przeznaczać na badania podstawowe w tej dziedzinie. W momencie, gdy cena takiej energii spadnie poniżej kosztów energii tradycyjnej, transformacja rynku nastąpi błyskawicznie.
  17. Nie trzeba ich nawet hackować, większość z nich sama z siebie działa błędnie.
  18. Psycholodzy są niewiarygodnie naiwni (to taki ładny eufenizm). Wymyślają magiczne mechanizmy dopasowania wyglądu do imion w sytuacji, gdy nie wyeliminowali najprostszej możliwości: to rodzice starają się wybrać imię dopasowane do wyglądu dziecka (lub rodziców - pośrednio dziecka). Niezależnie jak działa ten mechanizm, w prosty sposób będzie się też objawiał przy dopasowaniu zdjęć do imion w testach. Muszą też działać inne mechanizmy: Dżesika będzie miałą większą korelację z alkocholowym zespołem płodowym niż pospolita Ania. I w tym wypadku ta pani na pewno nie będzie starała się dopasowywać swojego wyglądu do stereotypów, wręcz przeciwnie. Z regóły ludzie starają się ulepszać swój wygląd twarzy. Zatem Rysiu czesząc swą ryśkowatą fryzurę nie będzie starał się jej dopasować do ryśkowatego ideału - on będzie się starał ją dopasować do ryśkowatej buzi by jak najlepiej wyglądać (tutaj zwracam uwagę że określenie ryśkowej w tym kontekście jest niepoprawne niepolitycznie).
  19. Standaryzacja nie dotyczy jakiejkowiek architektury, a jedynie nomenklatury. Dzięki temu nowo wybudowane komputery kwantowe będą mogły być jednoznacznie charakteryzowane. Zyski ze standaryzacji architektur będą znikome - koszty takich komputerów z pewnością bedą olbrzymie, aby w pełni wykorzystać ich możliwości będzie się programować "do metalu", przy czym wykonywane tam obliczenia ograniczą się oczywiście do jakichś kwantowych kerneli obliczenowych. Nikt jeszcze nie zademonstrował użytecznego kwantowego komputera cyfrowego. Osobiście mam podejżenia, że w praktyce nie uzyskamy dowolnego skalowania obliczeń kwantowych. W pewnym momencie przyrost wydajnosci ze zwiększania ilości qbuitów musi być całkowicie pożarty przez wykładniczo skracany z ilością qbitów czas obliczeń (dekoherencja), to mój taki mały no-go theorem dla skalowalenego kwantowego speedupu. Problem czy to N może być wystarczająco wielkie aby uzyskać przewagę nad klasycznym komputerem po uwzględnieniu rozmiaru i poboru mocy całej aparatury jest otwarty.
  20. A jeśli Git wyda Ci się za skomplikowany, to SVN.
  21. W trosce o zachowanie resztek zdrowego rozsądku: mamy taką cudowną matematyczną zasadę, że w odpowiednio długim przedziale czasu suma wody która się skrapla i paruje jest równa. Żadne ocieplenie tego nie zmieni, i dlatego używanie _globalnego_ ocieplenia jako wyjaśnienia spadku poziomu morza mija się z celem. Brawo. To mogłoby wymyśleć dziecko na lekcji przyrody w podstawówce. A to już zadanie specjalne dla Kapitana Oczywistego. Niestesty, 95% ludzi dojdzie do "wniosku", że za wysychanie morza z pewnością odpowiada postępujący efekt cieplarniany! Tak działa manipulacja.
  22. peceed

    Jarek Duda vs gugły!

    Może powinienm bezpośrednio odnieść się do tego: to całki po trajektoriach stają się po uproszczeniach MERW-em. Pomysł na pomysł oznacza, że to nawet nie jest na serio ruszone. I obawiam się, że żadnej sensownej matematyki się do tego i tak nie da wsadzić.
  23. peceed

    Jarek Duda vs gugły!

    W ogóle nie jest kolega znany, to jednorazowy news. Trafienie "na wieki" do podręczników informatyki to całkiem niezłe osiągnięcie (serdecznie gratuluję!), ale nawet pan D.Knuth nie jest celebrytą. A czytając newsy "kłótliwy" to jedna z ostatnich rzeczy jakie mogłyby przyjść do głowy. Google nie jest dzisiaj lubianą firmą. Nadprzyrodzone byty powstają w głowie kolegi próbującego wyobrażać sobie mechanizmy działania MK za pomocą pojęć klasycznych. Mechanika kwantowa pozwala określać prawodopodobieństwa przyszłych wydażeń na podstawie wyników pomiarów z przeszłości z punktu widzenia pewnego obserwatora (którego można interpretować jako coś w rodzaju układu odniesienia). To czy pod spodem coś się dzieje z punktu widzenia jakiś potencjalnych szerszych opisów rzeczywistości nie ma znaczenia, bo i tak MK wyznacza nasze teoretyczne możliwości poznania. I to coś pod spodem absolunie nie będzie się wyrażać za pomocą pojęć fizyki klasycznej. Jest to bardziej domena filozofii (tak, też mam własny "pomysł na pomysł" tłumaczący kształt MK ). Nie przyjmuje się bezkrytycznie tylko tworzy modele z obcięciem w miejscu gdy masa elektronu może być traktowana całkowicie jako energia pola. W teorii strun nie ma cząsteczek punktowych i problem znika. Nie ma żadnej magicznej genezy, jest zależność matematyczna która pozwala nam traktować całki po trajektoriach jako opis rówonważny dla funkcji falowej! Ten opis też ma swoje przejście do mechaniki klasycznej które jest dla nas bardziej intuicyjne. Może wyjaśnie koledze dlaczego MERW działa - otóż całki po trajektoriach wymagają sumowania po wszystkich trajektoriach, a średnia entropia takiej trajektorii jest bardzo bliska maksymalnej. Uklasyczniając trajektorie i dyskretyzyując model należy zachować tę właściwość. Wyprowadzenie działa w tym kmierunku, w żaden sposób nie należy tłumaczy go jako "genezy"/"działania" mechaniki kwantowej! Używanie takich modeli celem zrozumienia MK to błąd. Bell nieczego nie wniósł do zrozumienia mechaniki kwantowej, za to zrobił wiele dla jej niezrozumienia. Nadużywanie tego nazwiska pozwala przypuszczać o braku zrozumienia MK, taka reguła kciuka. "Zrozumienie" jako jakieś wewnętrzne wyobrażenie czy racjonalizacja nie dające praktycznej biegłości nic nie znaczy, teoria ma dostarczać wyników jakościowych i ilościowych. MK ma bardzo prostą postać aksomatyczną i próba odtwarzania jej w mózgu za pomocą jakichś klasycznych klocków jest skazana na niepowodzenie. Należy poznać jej własności stosując do rozwiązywania różnych problemów w różnych sytuacjach, i dopiero to pozwala na zdobycie intuicji która pozwala posługiwać się nią sprawniej i która może być uważana jako pewna forma zrozumienia. "shut up and calculate" to najlepsza (jeśli nie jedyna) znana metoda nauki MK, ale na pewno nie odnosi sukcesu u wszystkich.
  24. Pracownik, nie przebierając w słowach, narobił centralnie w wentylator. Jedyne na co wpadła firma aby go oczyścić, to jego włączenie i rozkręcenie do maksymalnych obrotów. Brawo Google! O święta naiwności! Oczywiście, jeśli połowa pracowników firmy jest z akcji afirmacyjnej, to doliczając te kilka procent pożytecznych idiotów i kierownictwo firmy mogliby stanowić większość. Szkoda tylko, że nie pokrywa się to z wynikami anonimowej ankiety przeprowadzonej wśród pracowników. Pichai Sundararajan wychował się w socjaliźmie, jego indyjskiej odmianie. Nie odnoszę wrażenia, aby mu to zaszkodziło w karierze.
×
×
  • Dodaj nową pozycję...