Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Jeden z najważniejszych prawników Microsoftu, Horacio Gutierrez, wezwał do stworzenia jednego ogólnoświatowego biura patentowego. Obecnie zdecydowana większość krajów ma własny system patentowy, a konieczność każdorazowego dostosowywania się do wymogów lokalnego prawa jest poważnym obciążeniem dla ponadnarodowych korporacji.

Z blogu Gutierrreza możemy dowiedzieć się, że obecnie na całym świecie na rozpatrzenie oczekuje ponad 3,5 miliona wniosków patentowych, z czego 750 000 zostało złożonych w USA. W niektórych przypadkach od momentu złożenia wniosku do przyznania patentu mija nawet 5 lat. Dlatego też  prawnik uważa, że istnienie wielu osobnych systemów powoduje, iż uzyskanie ochrony wynalazku na forum międzynarodowym jest tak drogie, że często stanowi poważną barierę i trwa bardzo długo. Stąd propozycja utworzenia jednej organizacji, która zajmowałaby się rozpatrywaniem i przyznawaniem patentów w skali całego świata.

Sam Gutierrez przyznaje, że zrealizowanie jego pomysłu będzie niezwykle trudne. Od wielu lat różne kraje próbują harmonizować swoje systemy patentowe i nie jest to łatwe. Wystarczy też wspomnieć, że propozycja reformy prawa patentowego w samych Stanach Zjednoczonych już dwukrotnie została odrzucona przez prawodawców. Trudno więc się spodziewać, by niemal 200 krajów było w stanie dojść do porozumienia w tej kwestii.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bardzo słuszny pomysł. Sam o tym ostatnio myślałem. Martwi mnie tylko jedno: system amerykański jest tak bardzo odmienny od innych, że ciężko go będzie ujednolicić z systemem europejskim czy japońskim.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Też uważam że to dobry pomysł.. Tylko właśnie mogą być niebywałe problemy żeby to osiągnąć..

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Patenty nie sprawdzają się w tematyce oprogramowania. Rozwiązania stosowane w oprogramowaniu które są patentowane stają się własnością firm które mają wystarczająco pieniędzy żeby zmonopolizować tą sfere, a gdy trafi się prawdziwy programista z pasji który chce napisać coś lepiej (ulepszyć), to okazuje się że jego dzieło wchodzi w konflikt z prawem bo konkretna firma opatentowała dane rozwiązanie i taki programista musi marnować czas na tworzenie czegoś od nowa zamiast skupić się na ulepszaniu starego pomysłu. A i często pisanie czegoś od nowa też wchodzi w konflikt z prawem bo zawsze można kogoś zaskarżyć że to co zrobił jest podobne. A co jeśli zacznie się patentować guzik "ok" albo prawe-kliknięcie myszką? Oczywiście przesadzam ale zmierzam do tego że patenty hamują konkurencyjność w oprogramowaniu, a globalizacja tego "prawa" tylko spotęgowała by wpływy firm o większym kapitale.

 

Byłem zatwardziałym użytkownikiem systemu Windows. Ale dopiero niedawno udało mi się przekonać do darmowego systemu jakim jest np. Linux. System jak system, wcale nie jest mniej dziurawy niż Windows. Natomiast cały ruch OpenSource z którym jest związany, sprzyja jego rozwojowi i poprawie, dzięki czemu z każdą nową wersją oprogramowania na tą platformę programy działają stabilniej.

Często oprogramowanie komercyjne jest lepsze i bardziej rozbudowane. Przykład to np. Photoshop który jest bardziej profesjonalnym narzędziem niż darmowy GIMP. Ale zadajcie sobie pytanie czy potrzebujecie profesjonalnego studia? Czy będziecie w stanie je obsłużyć? Ludzie często po prostu nie wiedzą że istnieje tania alternatywa i wolą piracić zamiast spróbować czegoś darmowego co może wystarczyć do ich potrzeb gdyby tylko nie wyrabiali sobie nawyków do których przyzwyczajają ich komercyjne programy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Natomiast cały ruch OpenSource z którym jest związany, sprzyja jego rozwojowi i poprawie, dzięki czemu z każdą nową wersją oprogramowania na tą platformę programy działają stabilniej.

Niby tak, ale b. często nowa wersja (a dokładniej: nowa generacja) danej aplikacji jest tak naprawdę betą. Popatrz sobie, jak tragicznie funkcjonowało np. KDE4 w pierwszych wersjach oficjalnych. Dopiero 4.2 zaczęła posiadać wszystkie podstawowe funkcje KDE3 (zmiany wielkości panelu itp.), bo developerzy uznali, że wodotryski i fajny wystrój są ważniejsze.

Często oprogramowanie komercyjne jest lepsze i bardziej rozbudowane. Przykład to np. Photoshop który jest bardziej profesjonalnym narzędziem niż darmowy GIMP. Ale zadajcie sobie pytanie czy potrzebujecie profesjonalnego studia?

Ale jednak sam przyznajesz, że PS jest lepszy.

 

Generalnie jestem użytkownikiem Linuksa i mnie on wystarcza, ale z przytoczoną argumentacja się nie zgadzam.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli idzie o jakość Open Source vs. zamknięty kod, to wszytko zależy od tego, co chcą osiągnąć twórcy danego oprogramowania. Ci, piszący programy komercyjne (zarówno OS jaki i zamknięte), muszą dostosowywać się do rynku. A rynek generalnie wymusza zwiększanie jakości. Oczywiście taki gigant jak np. MS może w pewnych sytuacjach częściowo olewać żądania rynku. Ale, co widzimy chociażby po przykładzie IE, po jakimś czasie pojawi się konkurencja, która wymusi zmiany, albo zabierze rynek.

Natomiast w przypadku oprogramowania niekomercyjnego, które piszemy sobie hobbistycznie, nie ma czynnika "wymuszającego" oprócz naszych własnych ambicji. Niezaleznie od tego, czy piszemy otwarty czy zamknięty kod. W tym momencie konsumenci są naszymy sędziami tylko częściowo, bo jeśli nie mamy ambicji ich zaspokajać i nie czujemy się mocno związani z tym, co tworzymy, to możemy olać sobie jakość. Najwyżej będzie naszej twórczości używało 100 desperatów na całym świecie. Jeśli jednak mamy ambicję, by program był używany przez 100 milionów ludzi, to musimy się bardziej starać, niezależnie od tego, czy piszemy OS czy CS.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
  W tym momencie konsumenci są naszymy sędziami tylko częściowo, bo jeśli nie mamy ambicji ich zaspokajać i nie czujemy się mocno związani z tym, co tworzymy, to możemy olać sobie jakość. Najwyżej będzie naszej twórczości używało 100 desperatów na całym świecie. Jeśli jednak mamy ambicję, by program był używany przez 100 milionów ludzi, to musimy się bardziej starać, niezależnie od tego, czy piszemy OS czy CS. 

 

Jak już coś robisz to rób to najlepiej jak potrafisz, inaczej jest to bez sensu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wcale nie. Jak już coś robisz, to rób to na tyle dobrze, na ile Ci za to płacą, lub na ile sytuacja tego wymaga. Bo nie warto marnować energii.

 

Np. Nie warto dwumetrowej deski przycinać z dokładnością do mikrometra, bo budowlańcowi i tak to nie jest potrzebne - a urządzenia przycinające z taką precyzją są droższe niż te przycinające z dokładnością do 0,5mm.

 

Jak płacą Ci 1200zł za przepisanie dokumentów, to dlaczego masz np poprawiać w nich wszystkie błędy, jeśli nie zawiera tego umowa? Dla Ciebie strata czasu i wysiłku, bo nikt Ci za to nie zapłaci..

 

Warto się starać tylko na tyle... na ile warto ;) Na max'a to tylko jak chcemy jakiś wzór jakości ustalić albo pobić rekord.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
  to rób to na tyle dobrze, na ile Ci za to płacą,

 

Dobre  8)  ....  ale tylko do czasu , przynosi brak rozwoju i deprechę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
przynosi brak rozwoju i deprechę.

Wprost przeciwnie. Ogranicza frustrację i zmniejsza stres związany z pracą.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale nie możesz wtedy wymagać od świata jakości , bo sam jej nie prezentujesz (jesteś taki letni , takie ciepłe, nijakie, pozycyjne kluski).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wprost przeciwnie. Wymagasz tyle, za ile płacisz, i robisz tyle, za ile inni płacą tobie, a więc zgodnie z umową. To uczciwy układ. Nikt nie mówi, że nie masz robić nic ponad minimum - jeśli masz ochotę, to rób. Ale jeśli inni mają mieć ci za złe, że robisz tyle, o ile sami poprosili, to są śmieszni.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale umowa o pracę (czy dowolna inna umowa, w której płaci się za wykonanie określonego zadania) to czysty biznes. Jak uważasz szefa za kumpla i chcesz coś dla niego robić, to rób - pewnie będzie mu miło. Ale szef nie ma prawa oczekiwać, że zrobisz więcej, niż nakazuje umowa, ani krytykować ciebie za to, że robisz tyle, ile masz zapisane w umowie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed dwoma laty Microsoft rozpoczął interesujący eksperyment. Firma zatopiła u wybrzeża Orkadów centrum bazodanowe. Teraz wydobyto je z dna, a eksperci przystąpili do badań dotyczących jego wydajności i zużycia energii. Już pierwsze oceny przyniosły bardzo dobre wiadomości. W upakowanym serwerami stalowym cylindrze dochodzi do mniejszej liczby awarii niż w konwencjonalnym centrum bazodanowym.
      Okazało się, że od maja 2018 roku zawiodło jedynie 8 a 855 serwerów znajdujących się w cylindrze. Liczba awarii w podwodnym centrum bazodanowym jest 8-krotnie mniejsza niż w standardowym centrum na lądzie, mówi Ben Cutler, który stał na czele eksperymentu nazwanego Project Natick. Eksperci spekulują, że znacznie mniejszy odsetek awarii wynika z faktu, że ludzie nie mieli bezpośredniego dostępu do serwerów, a w cylindrze znajdował się azot, a nie tlen, jak ma to miejsce w lądowych centrach bazodanowych. Myślimy, że chodzi tutaj o atmosferę z azotu, która zmniejsza korozję i jest chłodna oraz o to, że nie ma tam grzebiących w sprzęcie ludzi, mówi Cutler.
      Celem Project Natic było z jednej strony sprawdzenie, czy komercyjnie uzasadnione byłoby tworzenie niewielkich podwodnych centrów bazodanowych, która miałyby pracować niezbyt długo. Z drugiej strony chciano sprawdzić kwestie efektywności energetycznej chmur obliczeniowych. Centra bazodanowe i chmury obliczeniowe stają się coraz większe i zużywają coraz więcej energii. Zużycie to jest kolosalne. Dość wspomnieć, że miliard odtworzeń klipu do utworu „Despacito” wiązało się ze zużyciem przez oglądających takiej ilości energii, jaką w ciągu roku zużywa 40 000 amerykańskich gospodarstw domowych. W skali całego świata sieci komputerowe i centra bazodanowe zużywają kolosalne ilości energii.
      Na Orkadach energia elektryczna pochodzi z wiatru i energii słonecznej. Dlatego to właśnie je Microsoft wybrał jako miejsce eksperymentu. Mimo tego, podwodne centrum bazodanowe nie miało żadnych problemów z zasilaniem. Wszystko działało bardzo dobrze korzystając ze źródeł energii, które w przypadku centrów bazodanowych na lądzie uważane są za niestabilne, mówi jeden z techników Project Natick, Spencer Fowers. Mamy nadzieję, że gdy wszystko przeanalizujemy, okaże się, że nie potrzebujemy obudowywać centrów bazodanowych całą potężną infrastrukturą, której celem jest zapewnienie stabilnych dostaw energii.
      Umieszczanie centrów bazodanowych pod wodą może mieć liczne zalety. Oprócz już wspomnianych, takie centra mogą być interesującą alternatywą dla firm, które narażone są na katastrofy naturalne czy ataki terrorystyczne. Możesz mieć centrum bazodanowe w bardziej bezpiecznym miejscu bez potrzeby inwestowania w całą infrastrukturę czy budynki. To rozwiązanie elastyczne i tanie, mówi konsultant projektu, David Ross. A Ben Cutler dodaje: Sądzimy, że wyszliśmy poza etap eksperymentu naukowego. Teraz pozostaje proste pytanie, czy budujemy pod wodą mniejsze czy większe centrum bazodanowe.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft ponownie będzie dostarczał użytkownikom Windows 10 poprawki niezwiązane z bezpieczeństwem. Jak wcześniej informowaliśmy, w związku z pandemią koronawirusa koncern zmienił sposób pracy i od maja dostarczał wyłącznie poprawki związane z bezpieczeństwem.
      Chris Morrissey z Microsoftu ogłosił na firmowym blogu, że od lipca dostarczane będą wszystkie poprawki dla Windows 10 oraz Windows Server dla wersji 1809 i nowszych. Kalendarz ich publikacji będzie taki, jak wcześniej, zatem dostęp do nich zyskamy w Update Tuesday. Koncern zapowiada też pewne zmiany, które mają na celu uproszczenie procesu aktualizacji.
      Zmiany takie obejmą nazewnictwo poprawek oraz sposób dostarczania poprawek do testów dla firm i organizacji. Zmian mogą się też spodziewać osoby i organizacja biorące udział w Windows Insider Program oraz Windows Insider Program for Business.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa hakerska Shiny Hunters włamała się na GitHub-owe konto Microsoftu, skąd ukradła 500 gigabajtów danych z prywatnych repozytoriów technologicznego giganta. Dane te zostały następnie upublicznione na jednym z hakerskich forów. Nic nie wskazuje na to, by zawierały one jakieś poufne czy krytyczne informacje.
      Ataku dokonali ci sami przestępcy, którzy niedawno ukradli dane 91 milionów użytkowników największej indonezyjskiej platformy e-commerce Tokopedii i sprzedali je za 5000 USD. Jak mówią eksperci, Shiny Hunters zmienili w ostatnim czasie taktykę.
      Na dowód dokonania ataku na konto Microsoftu hakerzy dostarczyli dziennikarzom zrzut ekranowy, na którym widzimy listę prywatnych plików developerów Microsoftu. Początkowo przestępcy planowali sprzedać te dane, ale w końcu zdecydowali się udostępnić je publicznie.
      Jako, że w ukradzionych danych znajduje się m.in. tekst i komentarze w języku chińskim, niektórzy powątpiewają, czy rzeczywiście są to pliki ukradzione Microsoftowi. Jednak, jak zapewniają redaktorzy witryny Hack Read, ukradziono rzeczywiście pliki giganta z Redmond. Przedstawiciele Shiny Hunters informują, że nie mają już dostępu do konta, które okradli. Microsoft może zatem przeprowadzić śledztwo i poinformować swoich klientów o ewentualnych konsekwencjach ataku. Sama firma nie odniosła się jeszcze do informacji o włamaniu.
      GitHub to niezwykle popularna platforma developerska używana do kontroli wersji, z której korzysta 40 milionów programistów z całego świata. W październiku 2018 roku została ona zakupiona przez Microsoft za kwotę 7,5 miliarda dolarów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft to kolejny, po Google'u, światowy gigant IT, który podpisał umowę o partnerstwie z Operatorem Chmury Krajowej, czyli spółki założonej przed dwoma laty przez PKO BP i Polski Fundusz Rozwoju. Jak czytamy w oświadczeniu Microsoftu, firma ogłosiła dzisiaj kompleksowy plan inwestycyjny o wartości 1 miliarda dolarów, którego celem jest przyspieszenie innowacji i cyfrowej transformacji na rzecz rozwoju Polskiej Doliny Cyfrowej.
      Fundamentem tego wielopoziomowego planu jest otwarcie nowego regionu data center Microsoft w Polsce, w ramach globalnej infrastruktury chmury obliczeniowej, który ma zapewnić krajowemu ekosystemowi startupów, przedsiębiorców, firm i instytucji publicznych dostęp do bezpiecznych usług chmury obliczeniowej klasy enterprise. Microsoft i Operator Chmury Krajowej podpisali strategiczne porozumienie, którego celem jest zapewnienie eksperckiej wiedzy z zakresu transformacji cyfrowej i szerokiego dostępu do rozwiązań chmurowych dla wszystkich branż i przedsiębiorstw w Polsce.
      Istotnym elementem ogłoszonej dzisiaj inwestycji jest kompleksowy i długoterminowy program podnoszenia kwalifikacji, który w efekcie pozwoli lokalnym specjalistom i młodzieży zwiększyć szanse zatrudnienia. Microsoft ma na celu rozwój kompetencji cyfrowych około 150 000 pracowników, specjalistów IT, nauczycieli, studentów i obywateli. W ten sposób firma dąży do zwiększenia konkurencyjności polskich przedsiębiorstw i osób prywatnych na rynku oraz ułatwienia polskim pracownikom skutecznego wprowadzania innowacji i wdrażania strategii transformacji cyfrowej swoich organizacji przy wykorzystaniu możliwości chmury obliczeniowej.
      Program rozwoju umiejętności będzie obejmował szkolenia, programy e-learningowe, warsztaty i hakatony dotyczące przetwarzania w chmurze, wykorzystania technologii AI i uczenia maszynowego, przetwarzania dużych zbiorów danych (Big Data) i Internetu rzeczy (Internet of Things). W ramach podejmowanych działań, Microsoft zwróci szczególną uwagę na zapewnienie dostępu do technologii osobom z niepełnosprawnościami oraz narzędzi i programów podnoszących umiejętności, co w efekcie pozwoli im zwiększyć możliwości zatrudnienia.
      Nowy region data center będzie oferował dostęp do pełnej oferty Microsftu, zarówno Azure, Microsoft 365, jak i Dynamics 365 oraz Power Platform.
      Partnerstwo z Microsoftem pozwala OChK na dodatkową dywersyfikację oferty. Rozszerza ją o rozwiązania platformy chmurowej Azure, m.in. usługi infrastruktury sieciowej, baz danych, analityki, sztucznej inteligencji (AI) i Internetu rzeczy (IoT). W ofercie OChK znajdą się także rozwiązania Microsoft 365, zapewniające dostęp do aplikacji zwiększających produktywność, dostępnych jako usługa w chmurze i dostarczanych jako część otwartej platformy wspierającej procesy biznesowe. Już od momentu podpisania umowy Microsoft i OChK będą wspólnie wspierać przedsiębiorstwa i instytucje świadczące usługi doradcze, wdrożeniowe i opracowując projekty transformacyjne, na korzystnych rynkowo warunkach.
      Polska ma szansę być cyfrowym sercem Europy. Dlatego dzisiaj ogłaszamy partnerstwo z Operatorem Chmury Krajowej i największą w historii kraju inwestycję w technologię cyfrową wynoszącą 1 miliard dolarów. W ramach inwestycji planujemy działania na rzecz rozwoju kompetencji cyfrowych, wsparcie transformacji i budowę pierwszego w Europie Środkowo-Wschodniej, bezpiecznego i zaufanego regionu centrum przetwarzania danych w chmurze Microsoft o globalnej skali. Oznacza to dostęp do światowej klasy technologii, a w szczególności rozwiązań chmurowych, z poziomu data center zlokalizowanego w Polsce - powiedział Mark Loughran, dyrektor generalny polskiego oddziału Microsoft.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...