wtorek, 7 grudnia 2010

Poznaj elementy skutecznej strony www…

Poznaj elementy skutecznej strony www…

Autorem artykułu jest adnetpolska



To co za chwilę przeczytasz nie jest dosłownym przepisem na sukces posiadania strony internetowej. Domyślam się, że nigdzie nie znajdziesz takiego przepisu.

Na sukces strony i firmy składa się jeszcze wiele innych czynników związanych z obsługą i zarządzaniem. Teraz jednak skupmy się na istocie strony internetowej…

Pierwszą rzeczą o jakiej powinieneś pamiętać wchodząc z biznesem do sieci jest domena internetowa. Dobra domena, to krótka, łatwa do zapamiętania, oryginalna, i identyfikująca branżę i firmę nazwa. Adres po którym wszyscy zainteresowani trafią wprost do Ciebie. Wartościowa domena, jest podstawą e-biznsu.

Kolejnym elementem ściśle powiązanym z domeną i witryną jest szybki i stabilny serwer internetowy. Jak się domyślasz, tworzenie stron internetowych to jedno a utrzymywanie tych stron na serwerach to drugie. Bierz pod uwagę tylko stabilne rozwiązania. Bezawaryjność strony i szybki dostęp do niej świadczy o profesjonalnym podejściu do sprawy. Wiesz przecież, że klienci nie lubią czekać...

Wiesz też, że wszyscy lubimy sprawdzone rozwiązania, a sprawdzone to takie w których czujemy się pewnie. Dlatego zrób co w Twojej mocy, aby nawigacja na Twojej stronie www była intuicyjna i czytelna. A treść przejrzysta i zachęcająca do pozostania na stronie.

Co do treści to teraz uważaj… Twojego klienta nie interesują takie aspekty jak:
- historia Twojej firmy,
- rok założenia,
- czy certyfikaty jakimi dysponujesz.

Dlaczego?

Bo interesuje go on sam. Czyli przede wszystkim, to czy znajdzie u Ciebie rozwiązanie swoich problemów. Nie powinno Cię to dziwić. Zapamiętaj, że klient wchodzi na Twoją stronę dla siebie…a nie dla Ciebie.

Na zakończenie chciałbym ustrzec Cię przed jednym z klasycznych błędów, które na szczęście zdarzają się coraz rzadziej. Pamiętaj, by w dziale kontakt strony www, widniały zawsze aktualne dane kontaktowe do Ciebie i Twojej firmy.

---

Artur Lewandowski
Agencja Interaktywna
Nove-Media.pl


Artykuł pochodzi z serwisu www.Artelis.pl

Demagnetyzer - urządzenie do usuwania danych z dysku twardego

Demagnetyzer - urządzenie do usuwania danych z dysku twardego

Autorem artykułu jest Dorota K



Zastanawialiście się kiedyś, co się dzieje z danymi, przechowywanymi przez firmy, z których usług korzystacie? Wiadomo, wszystkie istotne informacje są zachowywane. Co jednak dzieje się z tymi, które zostały już wykorzystane i nie są potrzebne? Obowiązek każdego przedsiębiorcy to kasowanie danych z zachowaniem zasad bezpieczeństwa.

Współczesne firmy obracają ogromnymi ilościami danych swoich klientów. Są one przez nie wykorzystywane w przeróżnych celach. Wszystkie jednak kończą w ten sam sposób – a przynajmniej powinny. Dane klientów przedsiębiorstwa, które są już nieaktualne lub nie będą już firmie potrzebne, powinny zostać usunięte ze wszystkich nośników danych w sposób bezpieczny.

W jaki sposób można dokonać operacji, jaką jest usuwanie danych z dysku twardego? Istnieją dwie popularne metody, stosowane przez profesjonalne firmy, zajmujące się usuwaniem danych z dysku. Pierwsza metoda kasowania danych to metoda miękka, czyli programowa. Tą metodą usuwane są dane z dysków całkowicie sprawnych technicznie. Problemy mogą pojawić się wtedy, gdy dysk, który chcemy poddać operacji kasowania danych, nie będzie do końca sprawny.

W takim przypadku należy zastosować twardą metodę niszczenia danych na dysku, czyli demagnetyzację. Wówczas konieczne jest użycie urządzenia, jakim jest demagnetyzer – urządzenie służące do fizycznego usuwania danych z dysku twardego.

Demagnetyzer jest urządzeniem prostym w obsłudze. Wystarczy przeciągnąć nośnik danych wokół blatu demagnetyzera – i już! Jeżeli jednak nie mamy czasu, by zrobić to własnymi siłami, albo po prostu wolimy zlecić to zadanie komuś innemu, najlepiej skorzystać z pomocy firm, zajmujących się tym zawodowo. Dzięki nim możemy mieć pewność, że dane zostały poddane kasowaniu danych w sposób bezpieczny, z zastosowaniem międzynarodowych standardów, a także – że nie będzie można ich odzyskać nawet w specjalistycznych laboratoriach odzyskiwania danych.

---

Artykuł pochodzi z serwisu www.Artelis.pl

sobota, 27 listopada 2010

Komórka za 10mln zł!

Komórka za 10mln zł!

Autorem artykułu jest macław



Czy myśleliście kiedyś nad tym ile może kosztować najdroższy telefon na świecie?Zdaniem jednego portalu internetowego najdroższy tel na świecie to iPhone 3GS Supreme Rose.

 

 

Czy myśleliście kiedyś nad tym ile może kosztować najdroższy telefon na świecie?

Zdaniem jednego portalu internetowego najdroższy tel na świecie to iPhone 3GS Supreme Rose. Jego cena to niemalże 10 mln zł!!!

 

Na tak niebagatelną cenę wpływają materiały z jakich został wykonany ten telefon. Tylna obudowa zbudowana jest z różowego złota oraz platyny, przycisk 'home” wykonany jest z 7,5 karatowego diamentu, a obramowanie zdobi 130 diamentów o łącznej wadze 95,7 karatów. Logo firmy Apple zrobione jest z 53 malutkich diamencików. Poprzedni najdroższy telefon został stworzony również przez Apple. Był on tańszy od iPhone 3GS Supreme Rose o 100 tysięcy funtów. To nie jedyne urządzenia tej klasy wyprodukowane przez Apple, w ofercie znajdziemy kilka iPhon'ów oraz iPAD'ów. Bardzo ciekawym urządzeniem jest również iPad za ponad pół miliona złotych. Tylnia obudowa została również wykonana ze złota. Dla firmy Apple ta niecodzienna seria urządzeń została wykonana przez złotnika z Liverpool'u, Stuart'a Hughes'a. 

 

Zastanawiasz się nad kupnem tego telefonu? :)  

 

 

---

Artykuł pochodzi z serwisu www.Artelis.pl

Gadżety na komórkę

Gadżety na komórkę.

Autorem artykułu jest Wesoły Liliputek



Komunikacja międzyludzka odgrywa bardzo ważną rolę od samego początku istnienia człowieka. Przez tysiące lat sposoby komunikacji zmieniały się i rozwijały – od całkowitego braku komunikacji, przez pismo obrazkowe aż po współczesną telefonię komórkową i komunikację przez Internet.

Komunikacja międzyludzka odgrywa bardzo ważną rolę od samego początku istnienia człowieka. Przez tysiące lat sposoby komunikacji zmieniały się i rozwijały – od całkowitego braku komunikacji, przez pismo obrazkowe aż po współczesną telefonię komórkową i komunikację przez Internet.

W XXI wieku telefony komórkowe stanowią główny sposób komunikowania się i wykorzystywane są na wiele różnych sposobów. Warto zauważyć, że na początku komórki służyły tylko do rozmów, a następnie do pisania krótkich wiadomości tekstowych nazywanych sms-ami. Dzisiaj telefon komórkowy to mini komputer, w którym można zmieścić mnóstwo przydatnych funkcji i całą masę gadżetów pozwalających na rozrywkę i dobrą zabawę.

 Gadżety na komórkę można dziś znaleźć nie tylko w gazetach, gdzie prezentowane są różnorodne animacje czy propozycje dzwonków. W Internecie funkcjonuje wiele zaawansowanych serwisów poświęconych głównie gadżetom na telefony komórkowe. Wiele z tych serwisów odwiedzanych jest każdego dnia przez tysiące osób, które chcą uatrakcyjniać swoje telefony i sprawiać, że będą się one bardziej wyróżniały za pomocą ciekawej melodyjki czy unikalnego sygnału sms.

Dzisiaj w telefonach możemy znaleźć nie tylko dzwonki monofoniczne, ale również bardzo ciekawe dzwonki polifoniczne czy true tone i real music, które sprawiają, że telefony są bardziej nowoczesne i dużo bardziej atrakcyjne dla miłośników nowoczesnej telefonii komórkowej. Twórcy gadżetów do komórek są bardzo pomysłowi i praktycznie każdego dnia proponują nowe możliwości, takie jak dzwonki w postaci największych hitów muzycznych czy w postaci śmiesznych odgłosów i dźwięków.

W wielu serwisach związanych z gadżetami gsm znaleźć można ciekawe pomysły na graficzne smsy czy mms, które wykorzystać można w różnych sytuacjach. Wysłanie komuś śmiesznego obrazka czy życzeń w formie obrazkowej to możliwości telefonów komórkowych, które wykorzystujemy codziennie. Pomysłów na obrazkowe formy gadżetów nie brakuje. Poza śmiesznymi grafikami można znaleźć również ciekawe tapety na komórki czy  animowane wygaszacze ekranu, które trafiają w gusta wielu miłośników telefonów.

Z nowoczesnych możliwości i funkcji telefonów komórkowych wyposażonych w gry Java czy polifoniczne dzwonki korzystają ludzie w różnym wieku. Oczywiście najwięcej emocji telefony wywołują wśród młodzieży, ale bardzo często można spotkać także osoby dorosłe i starsze, które bawią się telefonami i poszukują nowych dzwonków, ciekawych dźwięków i animacji, które sprawią, że telefon będzie jeszcze bardziej atrakcyjnym gadżetem zapewniającym dobrą zabawę. Fenomen telefonów komórkowych trwa już od lat, ale nie zanosi się na to, by popularność tego typu gadżetów i rozrywek miała się w najbliższej przyszłości zmienić. Im bardziej nowoczesne telefony tym więcej możliwości i konfiguracji, z których korzystają miłośnicy telefonów komórkowych i pasjonaci, którzy coraz chętniej kolekcjonują wszelkie możliwe dodatki i gadżety na komórki.

---

smsOK


Artykuł pochodzi z serwisu www.Artelis.pl

Super wizja - nowa jakość telewizji wysokiej rozdzielczości

Super wizja - nowa jakość telewizji wysokiej rozdzielczości

Autorem artykułu jest Katarzyna G.



Japończycy wyprzedzają o krok resztę świata w zagadnieniach związanych z telewizją i multimediami. W momencie, gdy Europejczycy z zachwytem patrzą na kolejne kanały uruchamiane w rozdzielczości High Definition, mieszkańcy Kraju Kwitnącej Wiśni odczuwają znużenie przestarzałą już technologią HD.

Pod koniec września 2010 roku światłowody na trasie Londyn - Tokio rozgrzały się do czerwoności. Po raz pierwszy w historii miała miejsce transmisja na żywo sygnału w rozdzielczości Super Hi-Vision.


Japońscy fani brytyjskiego zespołu The Charlatans obejrzeli ich koncert podziwiając jednocześnie formę zespołu, jak i (może bardziej?) jakość dostarczanego obrazu i dźwięku. Japończycy wyprzedzają o krok resztę świata w zagadnieniach związanych z telewizją i multimediami. W momencie, gdy Europejczycy z zachwytem patrzą na kolejne kanały uruchamiane w rozdzielczości High Definition, mieszkańcy Kraju Kwitnącej Wiśni odczuwają znużenie przestarzałą już technologią HD.
Ciekawostką jest fakt, że Japończycy dysponowali możliwościami dystrybucji analogowego sygnału w wysokiej rozdzielczości już pod koniec lat 80-tych poprzedniego stulecia.

00010408

Prezentacja Super Hi-Vision na targach IBC 2010 w Amsterdamie (digitalproductionme.com)


Super Hi-Vision jest opracowanym przez japońską telewizję publiczną NHK standardem wyświetlania obrazu telewizyjnego. Przy pracach nad jego udoskonalaniem i wdrażaniem pomagają również: brytyjskie BBC oraz włoska RAI.

Możliwości standardu są imponujące - obraz wyświetlany jest w rozdzielczości 7680 x 4320 (33 1776 MPix), czyli w 16-krotnie większej rozdzielczości niż obraz w Full HD. Większa jest również liczna klatek, jakie mogą być wyświetlane w ciągu jednej sekundy: 50 lub 60.

Każdy fan kina i telewizji wie, jak wiele wrażeń dostarcza dźwięk. Składową Super Hi-Vision jest technika "Hamasaki 22.2" nazywana w skrócie "22.2", będąca krokiem milowym w przesyłaniu strumieni audio.
Transmisja dźwięku odbywa się na 24 kanałach: 9 kanałów powyżej głowy, 10 kanałów na wysokości głowy, 3 kanały poniżej wysokości głowy, 2 kanały na efekty specjalne o niskich częstotliwościach.
Przy 24 głośnikach określenie "dźwięk przestrzenny" nabiera zupełnie nowego znaczenia. Przy tym standardzie obraz w jakości Full HD wygląda jak rozmyta plama, a jakość dźwięku Dolby Surround przypomina dźwięk z samochodowego odtwarzacza kasetowego.

---

www.dipol.com.pl


Artykuł pochodzi z serwisu www.Artelis.pl

piątek, 26 listopada 2010

Reklama z grafiką przestrzenną

Autorem artykułu jest Presmat

Reklama z grafiką przestrzenną

Reklama to nie tylko oferty, które czytamy na ulotkach, w gazetach czy w internecie. To także szyldy sklepowe i tablice reklamowe znajdujące się w centrach miast. Czy można stworzyć zatem niepowtarzalny logotyp?


Nie sposób dziś zaistnieć z własną firmą bez przejrzystej i wpadającej w oko reklamy. Rosnąca konkurencja na rynku sprawia, że rozpoznawalność produktu ma niezwykle duży wpływ na jego sprzedaż. Klienci przywiązują się do konkretnej marki i często wybierając się na zakupy do centrum handlowego czy supermarketu przetrząsają sterty opakowań w poszukiwaniu ulubionego logo. Dzięki temu prawie automatycznie zaufanie klienta zyskują nowe, wchodzące na rynek produkty tego samego producenta. Podobnie ma się sprawa z usługami. Cenimy sobie jakość i profesjonalizm - zawsze wolimy wybrać sprawdzonego mechanika samochodowego bądź dostawcę eko-groszku, niż eksperymentować i ryzykować nasze pieniądze. Firmy chcą się reklamować nie tylko w internecie czy w lokalnej prasie. W centrach dużych miast wołają do nas szyldy sklepowe i tablice reklamowe, informujące potencjalnych lub stałych klientów o siedzibie firmy. Czy w gąszczu reklamowym mamy szansę na zaistnienie?
Jak w każdym tłumie musimy się czymś wyróżnić, aby nas zauważono. Ciekawą i profesjonalną formą reklamy jest grafika przestrzenna ze styroduru. Logotypy i litery wykonane z tego polistyrenu cechują się dobrą odpornością na uszkodzenia mechaniczne i zmieniające się warunki atmosferyczne. Dzięki temu nasz szyld reklamowy przetrwa długie lata, a przede wszystkim będzie wykonany w grafice przestrzennej, co stwarza niepowtarzalny efekt wizualny.

1 000 000 WEJŚĆ (po 10 sekund) na Twoją stronę ZA DARMO!

---

Artykuł pochodzi z serwisu Publikuj.org.

Firmowa strona www - sposób na pozyskanie klienta

Autorem artykułu jest Sebastian Mendyk

Firmowa strona www - sposób na pozyskanie klienta

Nowoczesne media stawiają przed nami nowe wyzwania. Dzisiejszy interaktywny komunikat powinien mieć rozbudowaną i jednocześnie przejrzystą formę. Czasy, kiedy do wybicia się przed konkurencję wystarczała skromna wizytówka w sieci minęły bezpowrotnie.


Firmowa strona www stała się w świecie dzisiejszego biznesu pierwszym i niejednokrotnie podstawowym źródłem informacji o prowadzonej działalności. To właśnie tam usługobiorca zapoznaje się w pierwszej kolejności z ofertą, przegląda dokonania firmy, poznaje grono naszych zadowolonych klientów. Przed ekranem biurowego komputera dochodzi do najważniejszych decyzji - wyboru firmy, która wykona zlecenie, czy dostarczy towar.  

Projektowanie stron www jest zajęciem, które wymaga umiejętności związanych z programowaniem aplikacji internetowych, tworzeniem grafiki i copywritingiem. Ważny jest nie tylko dobór odpowiedniej szaty i elementów graficznych, ale także funkcjonalność naszej nowej witryny. Równie istotny będzie łatwy dostęp do informacji, które chcemy przekazać zainteresowanym. Zatem nasz webmaster powinien być zarówno sprawny językowo, jak i utalentowany plastycznie.  

Inny aspekt to systematyczna aktualizacja treści oraz nowe rozwiązania techniczne na stronie internetowej. Reklama w Internecie staje się efektywna, kiedy u jej odbiorcy powstaje interakcja. Aby takową wytworzyć, należy dbać o aktualność treści i cenników, uzupełniać portfolio o nowe realizacje, nadążać za najnowszymi trendami technicznymi.

Agencja Reklamowa Foxlogic

---

Artykuł pochodzi z serwisu Publikuj.org.

O odzyskiwaniu słów kilka

O odzyskiwaniu słów kilka

Odzyskiwanie danych w przypadku wystąpienia uszkodzeń nośników o charakterze mechanicznym i elektronicznym wymaga korzystania z zaawansowanych rozwiązań.

Jest to nie tylko zaplecze w postaci odpowiednio wykształconej kadry specjalistów, którzy wiedzą jak ugryźć dany problem, ale także - odpowiednie zaplecze techniczne - w postaci pomocnych programów i aplikacji systemowych; laboratorium z wyposażeniem pozwalającym na realizowanie założonych celów, jak i narzędzia i specyfiki, konieczne w niektórych przypadkach do powodzenia procesu jakim jest odzyskiwanie danych.



Jeżeli dysk twardy uległ uszkodzeniu o charakterze elektronicznym wówczas okazać się może, iż wystarczy wymienić elementy elektroniczne dysku, by umożliwić jego prawidłowe działanie. Wtedy dane zostaną odzyskane w zasadzie, bez uszczerbku. Jednak może również okazać się, iż uszkodzenia są znacznie poważniejsze. Wtedy wiele zależy od precyzji specjalisty, który zajmie się tym zadaniem. Wiadomo, im jest lepszy, tym większa szansa na powodzenie procesu.



Z kolei odzyskiwanie danych, kiedy uszkodzenie ma charakter mechaniczny bywa zazwyczaj bardzo kłopotliwe. W przypadku płyt CD - wystarczy zastosowanie odpowiednich specyfików wspierających usunięcie rys, które uniemożliwiają dostanie się do zapisanych danych. Jednak w przypadku uszkodzeń mechanicznych np. dysku twardego - konieczne może się okazać przeniesienie jego sprawnych elementów do nowego źródła, co wymaga niesamowitej wprawy i znajomości tematu, a także - bogatego zaplecza laboratoryjnego. Profesjonalnie prowadzone odzyskiwanie danych daje wielkie szanse na powodzenie. Średnia skuteczność procesu na świecie wynosi obecnie 76%. - to dobry wynik. Jednak do doskonałości jeszcze daleko.



Jeżeli zależy nam na odzyskaniu istotnych danych nigdy nie powinniśmy próbować odzyskać ich samodzielnie. Nawet jeżeli uszkodzenie ma charakter logiczny i w teorii można skorzystać z dostępnych programów. Okazuje się bowiem, iż źle przeprowadzone odzyskiwanie danych może być bardziej szkodliwe niż nicnierobienie.

--
Stopka


Artykuł pochodzi z serwisu artykuly.com.pl - Twojego źródła artykułów do przedruku.

Idzie zima - czas zadbać o nasze auto

Autorem artykułu jest Presmat2

Idzie zima - czas zadbać o nasze auto

Niska temperatura, podwyższona wilgotność i sól na drogach to na pewno najwięksi wrogowie naszego auta. Czy jest sposób, aby zabezpieczyć je przed negatywnym działaniem tych czynników pogodowych?


Zima to szczególnie okrutny czas dla wielu elementów naszego samochodu. Zmienne warunki atmosferyczne są czynnikami przyspieszającymi zużycie układów: elektrycznego i zawieszenia, karoserii czy silnika. Począwszy od problemów z rozruchem silnika, spowodowanych niską temperaturą, poprzez uszkodzenie zawieszenia, których sprawcą są liczne dziury w drogach, aż po rdzewiejącą karoserię i podwozie, które wymagają już bardziej skomplikowanych napraw blacharsko-lakierniczych. Niska temperatura, podwyższona wilgotność i sól na drogach to na pewno najwięksi wrogowie naszego auta. Czy jest sposób, aby zabezpieczyć je przed negatywnym działaniem tych czynników pogodowych? Samo garażowanie nie wystarczy, a wręcz może przyspieszyć proces rdzewienia, jeśli w garażu znajduje się ogrzewanie. Dlatego podstawą do zachowania dobrej kondycji blacharskiej naszego samochodu jest regularne spłukiwanie soli z powierzchni karoserii i podwozia - najlepiej na myjce ciśnieniowej, a także zabezpieczenie lakieru, w czym pomogą dobre kosmetyki samochodowe. Dobrym rozwiązaniem jest zakonserwowanie najbardziej narażonych na powstawanie odprysków i działanie soli elementów - na przykład nadkoli i progów środkami takimi jak Bitgum czy Bitex. Te preparaty w sprayu to kosmetyki samochodowe, które tworzą elastyczną i trwałą powłokę odporną na działanie wody, soli, a także piasku i kamieni.

Artykuły Tematyczne

---

Artykuł pochodzi z serwisu Publikuj.org.

Co zyskujemy dzięki monitoringowi GPS

Autorem artykułu jest Jagosh

Co zyskujemy dzięki Monitoringowi GPS

Temat okazał się niezwykle elektryzujący. Konflikt opinii między pracodawcą a pracobiorcą jest widoczny gołym okiem, wszak wiadomo "punkt widzenia zależy od punktu siedzenia". My skupimy się na korzyściach opierających się o konkretną usługę jaką mieliśmy okazję testować.


Popularność Monitoringu GPS zyskuje stale na znaczeniu. Ogromne możliwości, jakie daje zarządzania flotą przekładają się bezpośrednio na wyniki firmy. Zapoznając się z argumentacją takich wdrożeń, nie sposób przejść obojętnie obok korzyści, jakie płyną z ich stosowania. Analiza jaką przeprowadziliśmy, służyła przedstawieniu korzyści wynikających z zastosowania z oprogramowania Monitoringu GPS. Wykonana został ona dzięki uprzejmości firmy Juwentus Profesjonalna usługa zarządzania flotą wymaga specjalistycznego oprogramowania, które powinno charakteryzować wielofunkcyjność przy zachowaniu łatwości obsługi. Większość firm wykonujących tego typu działania udostępnia swoim klientom oprogramowanie bezpłatnie. Aplikacja COBRA, którą testowaliśmy, jest bardzo funkcjonalna. Umożliwia indywidualną obserwację pojazdów oraz proste generowanie przeróżnych raportów i analiz. Monitorowanie sygnałów z nadajników oraz obsługa alarmów z pojazdów prowadzona jest całodobowo przez operatorów. Posiadanie monitoringu GPS w firmie ochroniarskiej sprawia, że w przypadku kradzieży podejmowane są natychmiastowe działania przez upoważnione do tego podmioty (ochrona, policja). Ich zadaniem jest jak najszybsze odnalezienie i zabezpieczenie skradzionego samochodu. Ponadto, taka usługa będąca formą zabezpieczenia naszego pojazdu, daje nam argument u ubezpieczyciela. Część firm (w tym Juwentus) znajduje się na liście PZU koncesjonowanych podmiotów uprawnionych do administrowania systemami lokalizacji i ochrony przeciwkradzieżowej pojazdów. Oznacza to, iż montując taki GPS, klienci otrzymają w PZU dodatkowe 10% zniżki w składce AC, po wcześniejszym uwzględnieniu wszystkich przynależnych zniżek i rabatów.

---

Artykuł pochodzi z serwisu Publikuj.org.

czwartek, 25 listopada 2010

Trochę z innej beczki...

Ubezpieczenie samochodu od kradzieży

Autorem artykułu jest ubezpieczenia



Wyobraź sobie, że jesteś posiadaczem nowiutkiego samochodu, dbasz i troszczysz się o niego. Jest dla Ciebie niemal jak członek rodziny. Wstajesz rano, wybierasz się do pracy, wychodzisz z domu, a przed oczami jawi Ci się puste miejsce parkingowe. Chwileczkę.. Gdzie jest moje auto?

Nikt z nas nie chciałby się znaleźć w podobnej sytuacji. Przy wyborze ubezpieczenia auta zazwyczaj oddalamy od siebie myśli dotyczące ewentualnych zdarzeń, które mogą nam się przytrafić. Zazwyczaj słyszymy o wypadkach drogowych czy kradzieżach w radio lub telewizji. Myślimy wówczas że nas to nie dotyczy. Rzeczywistość czasami może nam jednak zrobić nieprzyjemną niespodziankę, dlatego przy zakupie obowiązkowego ubezpieczenia OC warto zastanowić się nad ochroną dodatkową w postaci ubezpieczenia AC.

Był sobie samochód...

Samochód zazwyczaj jest dużo wart dla swojego właściciela. Dla niektórych jest środkiem lokomocji, dla innych – członkiem rodziny. Jeździmy nim do pracy, na wakacje, na spotkania z przyjaciółmi i na zakupy. Ewentualności kradzieży samochodu w ogóle nie bierzemy pod uwagę podczas jego użytkowania. Niestety kradzieże zdarzają się coraz częściej i zawsze wiążą się z dużym stresem. W sytuacji, gdy skradziony samochód nie miał ubezpieczenia AC, właściciela dotyka ogromna strata i zostaje z niczym. Większość właścicieli pojazdów nie ma bowiem wykupionego ubezpieczenia samochodu na wypadek kradzieży.

Które auta są kradzione najczęściej? Ubezpieczenie samochodu

Jak potwierdzają statystyki, w ubiegłym roku skradziono prawie 17 tys. samochodów i ta liczba wciąż rośnie. Najbardziej kuszącym kąskiem dla złodziei samochodów okazuje się Volkswagen Passat, na drugim miejscu Volkswagen Golf, na trzecim – Audi A4, na czwartym – Audi A6. Poczciwy Fiat 126p, mimo że jest coraz rzadziej spotykany na drogach, uplasował się na piątym miejscu na liście kradzieży. Jest to jednak klasyczny przykład kradzieży „na części”. Na kolejnych miejscach możemy znaleźć takie samochody jak: Skoda Octavia, Toyota Corolla, Fiat Cinquecento, Seat Leon i Fiat Seicento.

Skąd giną samochody?

Samochody najczęściej giną z miejsc niestrzeżonych, czyli np. z osiedlowych parkingów i ulic. Swojego łupu złodzieje szukają również w garażach i na prywatnych posesjach. Coraz rzadziej odnotowywane przez policję są kradzieże po zagarnięciu kluczyków lub kradzieże z rozbojem. Często samochody znikają z parkingów strzeżonych oraz w wyniku tzw. Zaaranżowanych sytuacji, czyli np. „na stłuczkę”.

Co z zabezpieczeniami?

Prawda jest taka, że nie wynaleziono jeszcze sposobu w 100% eliminującego ryzyko kradzieży. Złodzieje regularnie udowadniają, że można obejść wszystkie dostępne zabezpieczenia: blokady, łańcuchy, immobilizery, multlocki, nadajniki GPS. Nie odstrasza również parking strzeżony czy przydomowy garaż. W skrajnych przypadkach możemy się spotkać nawet z wciągnięciem pojazdu na lawetę, albo wywóz na ciężarówce.

A może ubezpieczenie?

Stratę finansową i stres można zminimalizować, jeśli pojazd został wcześniej ubezpieczony. Jednak niewielu kierowców pozwala sobie na zakup ubezpieczenia AC. Zbyt dużą barierą okazuje się wysoka cena, która powoduje rezygnację z zakupu dodatkowej ochrony. Ta oszczędność jest jednak pozorna, ponieważ koszt Autocasco wynosi przeważnie kilkanaście procent wartości pojazdu.

Na rynku pojawiają się również coraz ciekawsze oferty ubezpieczeń komunikacyjnych. Niektóre towarzystwa oferują nawet ubezpieczenie tylko od kradzieży, w którym cena ochrony jest stała, bez względu na rodzaj samochodu czy dane kierowcy.

Warto zatem zainwestować odrobinę więcej w ubezpieczenie samochodu od kradzieży, choćby po to, żeby cieszyć się spokojnym snem na co dzień.

---

Ipolisa.pl - Kalkulator OC AC - porównywarka ofert ubezpieczeń komunikacyjnych, pozwalająca wybrać najtańsze ubezpieczenia OC i AC samochodu


Artykuł pochodzi z serwisu www.Artelis.pl

poniedziałek, 22 listopada 2010

niedziela, 21 listopada 2010

Budowa i organizacja pamięci podręcznej

Budowa i organizacja pamięci podręcznej

Autorem artykułu jest RatujPC



Pamięć cache jest zorganizowana w linijki (o rozmiarach 16 lub 32 bajty - 128 lub 256 bitów), w których są przechowywane informacje pobrane z RAM w postaci słów binarnych.

Jedna linijka jest najmniejszą porcją informacji - blokiem danych jaki układ cache wymienia z pamięcią operacyjną RAM. W różnych linijkach może być więc zapisana kopia zawartości odległych bloków z pamięci głównej.

Poniżej opisano budowę 32-bajtowej linijki pamięci podręcznej L1 w procesorze Pentium (rys. 3).  W innych procesorach mogą być zastosowane trochę inne rozwiązania, jednak ogólna zasada organizacji cache w linijki pozostaje taka sama.

 

Procesor Pentium posiada oddzielną pamięć podręczną poziomu L1 dla kodu programu (8kB) i oddzielną dla danych (8kB). Każda z nich jest podzielona na 256 linijek (256 x 32 B = 8kB).

Aby zbiór takich linijek był dla procesora użyteczną strukturą, w której łatwo odszukać potrzebne dane, musi istnieć mechanizm zapisywania i kodowania dodatkowych informacji na temat każdej linijki. Przede wszystkim potrzebna jest informacja o tym, które fragmenty zawartości pamięci RAM są aktualnie skopiowane w poszczególnych linijkach. Jest to niezbędne, aby podczas żądania procesora odczytu z pamięci, kontroler cache mógł poprawnie określić czy dane są dostępne w linijkach, czy trzeba je sprowadzić z RAM. Wszystkie te informacje przechowuje się w katalogu cache (czasem określanym skrótem TAG-RAM). Jest on częścią pamięci podręcznej, która zawiera rekordy odpowiadające każdej linijce cache. Są w nich zakodowane informacje na temat danych aktualnie zapisanych w odpowiednich linijkach. Wartości poszczególnych pół tych rekordów mogą także wskazywać, że dana linijka jest wolna.

Podczas dostępu procesora do cache układy logiczne dzielą przekazywany przez niego adres na następujące części:

Znacznik (20 bitów) jest porównywany ze znacznikiem w katalogu cache. Na podstawie porównania znaczników określa się, czy potrzebne procesorowi dane są w linijce cache (określanie trafienia). Wiersz (7 bitów)  określa, która pozycja (indeks) w katalogu 1 i katalogu 2 może odwzorowywać potrzebne dane.Słowo (3 bity) pozwala na określenie, które z ośmiu 32-bitowych słów przechowywanych w linijce zawiera dane potrzebne procesorowi.Bajt (2 bity) określa, który bajt w 32- bitowym słowie jest aktualnie potrzebny mikroprocesorowi.

W wypadku braku trafienia, tak zbudowany adres wskazuje blok w pamięci operacyjnej RAM, zawierający potrzebne dane. Zgodnie z zasadą działania cache, po odczytaniu zawartości bloku z RAM musi ona być zapisana do pamięci podręcznej. Na podstawie bitu LRU oraz części adresu (pola wiersz) jest wyznaczana linijka, do której można dokonać zapisu.

Skrót MESI używany do określania bitów w katalogu cache, został utworzony od pierwszych liter angielskich określeń czterech możliwych stanów linijki (Modified, Exclusive, Schared, Invalid). Na podstawie stanu bitów MESI można także określić, czy dane w poszczególnych linijkach są także zapisane w innych poziomach pamięci podręcznej. Stan bitów MESI zmienia się  również podczas modyfikacji danych w pamięci. Dotychczas omawiane były jedynie zagadnienia związane ze skróceniem czas dostępu do danych i rozkazów podczas ich odczytu. Jednak procesor nie tylko odczytuje z pamięci RAM. W trakcie wykonywania programu musi też tam zapisywać wyniki swoich peracji, modyfikować pewne zmienne i dane. Niektóre z nich mogą być w tym czasie skopiowane także do pamięci podręcznej. Wiąże się z tym konieczność zadbania o aktualność obu kopii danych. Serwis komputerowy katowice poleca zwrócić uwagę jakie pamięci funkcnojują w naszym komputerze.

Do pamięci operacyjnej oprócz procesora mogą też mieć dostęp inne urządzenia. Mogą one zapisywać i odczytywać RAM bez udziału mikroprocesora. Jeśli dokonają zmiany słowa w RAM, którego kopia aktualnie jest przechowywana w cache, mogą spowodować, że procesor posiada w pamięci podręcznej nieaktualne dane. Również gdy procesor w trakcie programu dokona zmiany danych tylko w cache, inne urządzenia mogą odczytać bezpośrednio z RAM stare błędne wartości. Należy zaznaczyć, że taka niespójność może występować tylko dla pamięci podręcznej danych. W oddzielnej pamięci podręcznej kodu programu procesor nie zapisuje swoich wyników, gdyż przechowuje ona jedynie dla niego instrukcje - kolejne rozkazy. Są różne rozwiązania problemu spójności danych stosowane w różnych procesorach, jednakże generalnie można wyróżnić dwa sposoby:

 

 

Write Trougch (zapis jednoczesny)

W tym sposobie każdy zapis danych wykonywany jest jednocześnie zarówno do pamięci głównej jak i do cache. Każdy zapis wymaga więc dostępu procesora do pamięci RAM. Również każdy bezpośredni zapis do RAM wykonywany przez inne urządzenia musi być monitorowany przez procesor. W ten sposób może on w razie potrzeby uaktualnić zawartość cache. Jest to więc najbardziej naturalny sposób, jednak generuje znaczny przepływ danych między pamięciami co powoduje duże opóźnienia.

 

Wirte Back (zapis opóźniony)

W tym trybie przy zapisie procesor aktualizuje tylko pamięć podręczną. Jednocześnie dla zmodyfikowanych linijek układ cache ustawia odpowiednie statusy (na bitach MES). Zawartość pamięci głównej jest aktualizowana później na żądanie. Może ono być wyrażone przez instrukcję programową WBINVO (Write Back and Invalid Data Cache), lub specjalny sterujący sygnał sprzętowy.
Aktualizacja jest też wyzwalana w wyniku braku trafienia w fazie odczytu z pamięci głównej. Gdy trzeba dokonać wymiany linijki cache, zawartość linijki usuwanej mającej status zmodyfikowany (zakodowany na bitach MESI), musi być koniecznie zapisana do RAM.

Taka implementacja sposobu utrzymania spójności danych jest bardziej wydajna, minimalizuje ilość cyklów zapisu do pamięci głównej. Problemem jest jednak to, że bezpośredni dostęp zewnętrznych modułów wejścia-wyjścia do RAM także powoduje konieczność uaktualniania pamięci cache co może powodować pewne opóźnienia.

W trakcie wykonywania programu może też nastąpić konieczność zapisu danych w obszarach RAM, które nie są aktualnie skopiowane do pamięci podręcznej. Niektóre procesory w takim wypadku mogą po prostu dokonywać zapisu w RAM z pominięciem układu cache. W nowszych generacjach procesorów stosuje się  mechanizm, w którym zapis danych pociąga za sobą skopiowanie odpowiedniego bloku RAM do linijki cache, gdzie jest on modyfikowany.

Dzięki temu ewentualny odczyt lub zapis tych samych danych w następnych rozkazach procesora może przebiegać już bez konieczności odwoływania się do RAM. 

 

 

---

Pomoc Drogowa Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Pamięci RAM - pamięć wirtualna

Pamięci RAM- pamięć wirtualna

Autorem artykułu jest RatujPC



to mechanizm komputerowy zapewniający procesowi wrażenie pracy w jednym dużym, ciągłym obszarze pamięci operacyjnej podczas gdy fizycznie może być ona pofragmentowana, nieciągła i częściowo przechowywana na urządzeniach pamięci masowej.

Systemy korzystające z tej techniki ułatwiają tworzenie rozbudowanych aplikacji oraz poprawiają wykorzystanie fizycznej pamięci RAM. Często popełnianym błędem jest utożsamianie pamięci wirtualnej z wykorzystaniem pamięci masowej do rozszerzenia dostępnej pamięci operacyjnej. Rozszerzenie pamięci na dyski twarde w rzeczywistości jest tylko naturalną konsekwencją zastosowania techniki pamięci wirtualnej, lecz może być osiągnięte także na inne sposoby, np. nakładki lub całkowite przenoszenie pamięci procesów na dysk, gdy znajdują się w stanie uśpienia. Pamięć wirtualna działa na zasadzie przedefiniowania adresów pamięci tak, aby "oszukać" procesy i dać im wrażenie pracy w ciągłej przestrzeni adresowej.

 

Obecnie wszystkie systemy operacyjne ogólnego przeznaczenia wykorzystują techniki pamięci wirtualnej dla procesów uruchamianych w ich obrębie. Wcześniejsze systemy takie, jak DOS, wydania Microsoft Windows[1] z lat 80. oraz oprogramowanie komputerów mainframe z lat 60. nie pozwalały pracować w środowisku z pamięcią wirtualną. Godnymi odnotowania wyjątkami były komputery Atlas, B5000 oraz Apple Lisa.

 

Pamięć wirtualna wymaga wykonania pewnych dodatkowych nakładów pracy przy próbie odczytu lub zapisu, dlatego systemy wbudowane lub szczególnego przeznaczenia, gdzie czas dostępu jest czynnikiem krytycznym i musi być przewidywalny, często z niej rezygnują za cenę zmniejszonego determinizmu.

Stronicowana pamięć wirtualna

Prawie wszystkie istniejące obecnie implementacje dzielą wirtualną przestrzeń adresową procesu na strony. Strona jest to obszar ciągłej pamięci o stałym rozmiarze, zazwyczaj 4 KB. Systemy, gdzie zapotrzebowanie na wielkość wirtualnej przestrzeni adresowej jest większe lub dysponujące większymi zasobami pamięci operacyjnej mogą używać stron o większym rozmiarze. Rzeczywista pamięć operacyjna podzielona jest na ramki, których rozmiar odpowiada wielkości stron. System operacyjny według uznania może przydzielać ramkom strony pamięci lub pozostawiać je puste.

---

Serwis Laptopów Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Dyski twarde - pamięć masowa

Dyski Twarde- pamięć masowa - część 1- historia

Autorem artykułu jest RatujPC



Historia pamięci masowych sięga połowy dziewiętnastego wieku – już wtedy używano kart perforowanych do wprowadzania danych do mechanicznych maszyn liczących.


Pierwsze elektroniczne komputery korzystały z pamięci zbudowanej z lamp elektronowych, potem zaczęły pojawiać się różnej maści pamięci magnetyczne – bąbelkowe, taśmowe, bębnowe. Pierwszy w historii twardy dysk pojawił się w 1957 roku. Wtedy to IBM zaprezentował urządzenie o nazwie RAMAC 350 – złożony z pięćdziesięciu 24-calowych dysków zespół miał pojemność 5 MB, a koszt jego rocznej dzierżawy wynosił 35 tys. dolarów; jak nietrudno policzyć, oznaczało to 7 tys. dolarów za megabajt... W epoce maszyn mainframe budowano całe „farmy dysków” z zamkniętymi w klimatyzowanych pomieszczeniach zestawami talerzy o średnicach 14 czy 8 cali, wartymi grube dziesiątki tysięcy dolarów. Pojawienie się IBM PC w roku 1981 wcale nie zapowiadało rewolucji w dziedzinie pamięci masowych – system operacyjny „prapeceta” zawierał procedury obsługi pamięci w postaci magnetofonu kasetowego, choć oczywiście istniała także możliwość korzystania ze stacji dyskietek. Lista opcjonalnego wyposażenia IBM PC/XT z roku 1983 obejmuje już twardy dysk o pojemności 5 lub 10 MB – ówczesne napędy o znajomej średnicy 5,25" miały wysokość trzech cali (podobnie zresztą, jak wczesne stacje dyskietek) i stąd właśnie określenie „full height” (współczesny czytnik CD-ROM to „half height”). W roku 1984 Western Digital skonstruował - dzierżący przez kilka lat godność „standardu przemysłowego”, zastosowany w IBM PC/AT interfejs ST506, zaś w 1986 – opracowany do spółki z firmą Compaq dobrze nam znany interfejs IDE (Integrated Drive Electronics). Mniej więcej rok później w komputerach stacjonarnych zaczęto instalować dyski 3,5" (o wysokości 1", czyli „low profile”) – dopiero potem znalazły one zastosowanie w przenośnych laptopach. Postęp technologii powodował ciągły wzrost pojemności i szybkości urządzeń, przy jednoczesnym spadku zapotrzebowania na energię, coraz mniejszej hałaśliwości i większej niezawodności. Wyniki tego wyścigu obserwujemy na co dzień.

W dwudziestoletniej historii PC najbardziej eksponowany był zawsze postęp technologii półprzewodnikowej. Postęp w innych, bezpośrednio z nią związanych dziedzinach technologii był zawsze mniej eksponowany – w ciągu tego samego czasu, gdy stopniowo dokonywano 100-krotnego przyspieszania zegara procesora, pojemność typowego dysku stałego wzrosła 1000-krotnie. Dysk stały, dopóki działa i do momentu, gdy mieszczą się na nim bez kłopotów nasze dane i programy, rzadko bywa przedmiotem szczególnego zainteresowania. Tylko w momencie zakupu staramy się uzyskać możliwy kompromis pomiędzy pojemnościami – dysku i portfela, później dysk schodzi do swojej służebnej roli. Tymczasem od pojemności i szybkości dysku zależy wydajność komputera i wygoda jego użytkowania, a niezawodność dysku to w wielu przypadkach sprawa nie tylko bardzo ważna, ale wręcz kluczowa. Przeciętny użytkownik komputera traktuje dysk jako „czarne pudełko” zdolne do zapamiętania pewnej ilości danych – im więcej, tym lepiej. Bardziej dociekliwi zwracają uwagę również na jego parametry wydajnościowe – średni czas dostępu do danych oraz szybkość odczytu i zapisu. Parametry eksploatacyjne każdego urządzenia wynikają z jego konstrukcji, dlatego najdociekliwsi użytkownicy lubią wiedzieć również, co jest wewnątrz „czarnego pudełka” i jak to działa.

---

Pomoc Drogowa Katowice


Artykuł pochodzi z serwisu www.Artelis.pl

Komputer dla studenta

Komputer dla studenta

Autorem artykułu jest design man



Wybór wymarzonego laptopa należy zacząć od określenia celów w jakim będziemy go wykorzystywać i przedziału cenowego w jakim chcemy się zmieścić. Czy będzie nam służyć do wykonywania prac biurowych, oglądania filmów, grania w gry komputerowe czy surfowania po internecie.

Mój wymarzony laptop

notebook asus
    Należy również zwrócić uwagę w jakich okolicznościach najczęściej będziemy korzystać z naszego komputera. Jeśli będziemy pracować na nim głównie w domu czy w biurze, możemy pozwolić sobie na większy i cięższy komputer z 17 calowym lub większym ekranem. Gdy skupiamy się zaś na mobilności ważne jest aby nasz laptop był stosunkowo mały i poręczny. Wielkość ekranu wpływa również na wytrzymałość baterii, na którą powinniśmy zwrócić uwagę zwłaszcza gdy zależy nam na dużej mobilności. Po odpowiedzeniu sobie na te proste pytania możemy skupić się na konkretnym wyborze sprzętu czyli: procesora, twardego dysku, pamięci RAM, baterii, karty graficznej itp.
    W moim przypadku ma być to stosunkowo tani laptop przeznaczony dla studenta. Będzie użytkowany zarówno w domu, szkole jak i innych miejscach więc zależy mi na tym aby komputer pozwalał na mobilność jak i zarazem dawał komfort pracy.
    Komputer dla studenta przede wszystkim musi posiadać wytrzymałą baterię. Długie godziny wykładów wymagają długotrwałej pracy, nieraz bez możliwości podłączenia komputera do prądu. Należy więc zwrócić uwagę na wydajność baterii, która zazwyczaj jest podawana przez producenta w liczbie godzin nieprzerwanej pracy. Zwracamy również uwagę czy do laptopa, który zakupujemy można łatwo i tanio dokupić dodatkowe baterie.
    Jeśli chodzi o procesor, od dłuższego czasu rynek zdobywają procesory dwurdzeniowe, które charakteryzują się większą wydajnością. Są przydatne przede wszystkim dla osób, które pracują często na wielu aplikacjach jednocześnie. Do pracy biurowej, oglądania filmów, słuchania muzyki, surfowania po internecie nie potrzebuję takiego sprzętu więc można zaoszczędzić na tym elemencie.
    Należy zwróć dużą uwagę na częstotliwość pracy procesora, tzw. częstotliwość taktowania. Do surfowania po sieci, czy wykonywania prac biurowych wystarcza już 1 GHz, ale żeby pograć w gry należy wybrać procesor o wyższej częstotliwości.
    By komputer był funkcjonalny musi posiadać, dobrą kartę graficzną. Nie musi to być najdroższa karta dostępna na rynku, jednak zintegrowane rozwiązania nie oferują dobrych parametrów i najczęściej są gorzej wspierane pod względem oprogramowania niż karty dedykowane. Dlatego warto jest zaoszczędzić na procesorze, a kupić laptop który będzie posiadał kartę graficzną dedykowaną z co najmniej 32MB własnej pamięci.
    Kolejnym krokiem jest dobranie pamięci RAM. Powinno być jej minimum 2Gb w technologii DDR bądź DDR2. Pamiętajmy jednak, aby dowiedzieć się, czy płyta główna  umożliwia rozszerzenie pamięci RAM do co najmniej 4Gb. Jeżeli nie posiada takiej możliwości, może szybko okazać się, że konfiguracja sprzętowa ogranicza możliwości korzystania z nowoczesnego oprogramowania.
    Przy wyborze twardego dysku zwróćmy uwagę przede wszystkim na jego pojemność. Jeżeli zamierzamy przechowywać wiele ważnych danych, filmów, plików mp3, warto zwrócić uwagę, aby miał jak największą pojemność. Nie jest to jednak tak istotne, jeżeli np. będziesz często korzystał z nagrywarki, a filmy, pliki muzyczne itp. będziesz archiwizował na płytach DVD/CD. Więc jest to kolejny z elementów, na którym możemy zaoszczędzić. Najczęściej spotykamy laptopy z dyskami od 120 do 320 GB. Bardziej zaawansowany technicznie sprzęt może mieć ich nawet kilkaset lub tysiąc, czyli 1 TB.
    Oprócz wielkości ważne są też inne parametry, jak prędkość przesyłania danych w ciągu minuty przez twardy dysk. Standardowo wartości kształtują się tutaj na poziomie 5400 obr/min, 7200 obr/min oraz 10800 obr/min. Istotna jest także wewnętrzna pamięć podręczna twardego dysku. Jest to tzw. pamięć cache, której zadaniem jest między innymi przyspieszanie dostępu do pamięci masowej. Najprostsze dyski mają cache na poziomie 8MB. Pamięć cache ma za zadanie przede wszystkim poprawiać wydajność systemu w warunkach rzeczywistej pracy, dlatego jej ilość ma znaczenie. Warto więc oprócz pojemności dysku zwrócić uwagę na inne elementy.
    Należy zwrócić również uwagę na kwestię portów i kart rozszerzeń naszego laptopa. Najlepiej aby laptop posiadał Wi-Fi b/g/n, kartę Ethernet 10/100Mbs, 3x USB 2.0, oraz możliwość montażu kart PCMCIA.
    Jeśli chodzi o producenta, jest kilka firm, które produkują sprzęt najwyższej klasy. Każda z firm oferuje zarówno sprzęt o świetnych parametrach, jak i laptopy słabsze technicznie, przez co tańsze. Nie ma wśród nich zdecydowanego lidera. Ważnym aspektem, który należy wziąść również podczas zakupu jest oczywiście sprawny serwis notebook'a, które planujemy zakupić. Każdy może znaleźć coś idealnego dla siebie. W pierwszej kolejności należy zwrócić uwagę na wszelkie parametry, a dopiero później na markę.
    Na koniec zostaje jeszcze wybór między takimi elementami jak touchpad, track ball, czy trackpoint, dobór wygodnej klawiatury i miłego dla naszego oka designu laptopa.  Łącząc i dostosowując do swoich wymagań wszystkie wymienione przeze mnie elementy z pewnością znajdziemy „swój wymarzony laptop”.


---

Jak naprawić notebooka odwiedź profesjonalny serwis laptopów na śląsku w Katowicach


Artykuł pochodzi z serwisu www.Artelis.pl

Monitory LCD z matrycą LEDową

Monitory LCD z matrycą LEDową

Autorem artykułu jest Mastiff



Póki co technologię LED najbardziej propagują duzi gracze: Sharp, Samsung i Philips. Swoje modele oznaczone jako LED mają również inne firmy m.in. LG i Grundig, ale jak na razie ich oferta w polskich sklepach nie jest zbyt duża.

Przed zdecydowaniem się na monitor warto przeczytać recenzje specjalistów, opinie użytkowników (tu należy zawsze uważać, bo nie ma gwarancji, ze nie piszą ich pracownicy firm zajmujących się sprzedażą) i wybrać się samemu do sklepu. Wielkie markety z elektroniką sprawdzają się całkiem nieźle, ale nie należy sugerować się czasem gorszą jakością tego, co jest stale wyświetlane. Gdy upatrzysz sobie jakiś model, poproś pracownika, by podpiąć tylko do niego (bez rozdzielania sygnału) odtwarzacz filmów lub konsolę poprzez HDMI – dopiero wtedy zobaczysz, jak naprawdę prezentuje się obraz.

Sam zakup może się odbyć zarówno w tym sklepie, jak i w Internecie. Sam stosuję zwykle tę drugą metodę: sprawdzam, co mi się podoba w klasycznym salonie, ale zakupy robię w sieci. Tak jest taniej, a poza tym zawsze istnieje możliwość zwrotu sprzętu wciągu 10 dni bez podawania przyczyny. Obecnie wszystkie monitory LCD mają gwarancję producenta na okres 24 miesięcy.

Czerń w LCD

Tyle tylko, że… zdecydowana większość “monitorów LED” na rynku na to nic pozwala. Producenci muszą tu bowiem wybierać pomiędzy dwiema technologiami: LED edge i LED RGB. Ta pierwsza pozwala na umieszczenie podświetlających diod na bocznych krawędziach, dzięki czemu można zmniejszyć grubość sprzętu nawet do jednego centyme-tra. Żeby jednak poczuć większą różnicę jakościową względem starszych modeli, trzeba zainteresować się LED RGB.

Więcej czerni w czerni
Dopiero ta technologia pozwala na rzeczywiste poprawienie jakości obrazu, gdyż diody włączane i wyłączane są miejscowo. Jeśli w jakimś miejscu na ekranie powinna być czarna plama, po prostu pod nią nic się nie świeci. Zyskuje na tym również liczba możliwych do wyświetlenia kolorów, których jest więcej niż w przypadku zwykłych LCD (pytanie tylko, kto gołym okiem jest w stanie zauważyć różnicę). Z LED RGB są jednak dwa problemy. Przede wszystkim przy dość silnym oświetleniu zewnętrznym (np. graniu na konsoli w środku dnia bez zasłoniętych okien) kontrast obrazu może pozostawiać nieco do życzenia.

px2370features02

Drugi problem LED RGB polega na tym, że odbiorniki z tą technologią… są grubsze, praktycznie tak samo jak zwykłe LCD. Takie “tłuściochy” zaś prezentują się zdecydowanie gorzej w reklamach, więc nie ma ze strony marketingowej zbytniego na nie parcia. Inna rzecz, że do tej pory raczej nie spotkałem się z narzekaniem na grubość nowych monitorów – dla każdego, kto pamięta ogromne pudła modeli kineskopowych, zwykły LCD to już i tak rewelacyjna oszczędność miejsca.

---

Marek Tokarzewski IGNS.pl


Artykuł pochodzi z serwisu www.Artelis.pl

Jak kupować notebooki?

Poradnik sprzętowy - część pierwsza: Jak kupować notebooki?

Autorem artykułu jest OPCJA



Magazyny komputerowe i portale internetowe pełne są rankingów, zestawień i rad, ale mimo to kupno laptopa pod swoje potrzeby wcale nie jest proste.

Jeśli chcesz kupić notebooka, który będzie dla Ciebie odpowiedni, a jednocześnie nie przepłacić, czeka Cię nie lada łamigłówka. Aby ułatwić wybór, postanowiliśmy przygotować mały poradnik na ten temat. Dziś część pierwsza o tym, gdzie kupować sprzęt.

Trudny początek

notebookTypowym pierwszym krokiem przy zakupie komputera bywa porównanie cen produktów w serwisach typu Ceneo, czy Nokaut. Jednak nie sztuką jest zakup o 5% tańszego sprzętu, który będzie o 30% droższy od tego, czego potrzebujesz. Różnica tkwi w cenie gadżetów, które nie są Ci do niczego potrzebne, a nawet mogą utrudniać pracę.

Drugi standardowy krok, to prośba o radę znajomych fascynatów komputerów. Przy dzisiejszym stopniu skomplikowania sprzętu, większość ludzi „znających się na informatyce” będzie mogła doradzić Ci zakup sprzętu, tak samo trafnie, jak dobra księgowa może zaplanować budżet dla średniej wielkości państwa :)

Jak w takim razie się do tego zabrać? Warto najpierw zastanowić się, do czego będzie używany zakupiony sprzęt, jaki jesteśmy skłonni przeznaczyć na niego budżet i gdzie chcemy dokonać zakupów.

Supermarkety dla tych, co chcą bardzo tanio.

Często dość tanio możemy znaleźć sprzęt w sieciach handlowych, szczególnie na wyprzedażach. Niestety w sklepach sieciowych i supermarketach znajdziemy tylko jeden typ sprzętu: z bardzo niskiej półki. Oferowany wybór towaru jest dobierany tylko z uwzględnieniem jednego kryterium: niskiej ceny. Nawet, jeśli znajdziesz tam sprzęt z wyższej półki, to będą to zwykle 1-2 egzemplarze trzymane „na pokaz”. W supermarkecie masz więc minimalny wybór i sprzęt, który nie wiadomo jak długo leżał na wystawie.

Sklepy internetowe

Oferują olbrzymi wybór i bardzo niskie ceny. Jeśli dokładnie wiemy, czego potrzebujemy i nie liczymy na żadną obsługę posprzedażową, to jest to dobre rozwiązanie. Pamiętajmy jednak, aby nigdy nie wybierać najtańszych sklepów! One zwykle działają na granicy swoich kosztów i oszczędzają na wszystkim. Wybierają najtańszych kurierów, słabo obsługują reklamacje, mają niski poziom obsługi klienta.

Poza tym, przy zakupach internetowych, jeśli coś jest nie tak, to zaczynają się schody. Zwykle nawet nie można pójść do sklepu i porozmawiać o problemie. A przecież czasem wystarczy, że dostawca „krzywo” rzuci paczką... Praktycznie nie da się wszystkiego przetestować przy odbiorze, bo rzadko kiedy zdążymy przy kurierze choćby rozpakować sprzęt.

Wyspecjalizowane sklepy i firmy komputerowe

W takim miejscu spotkasz najbardziej wykwalifikowany personel i najlepszą obsługę posprzedażową. Większość firm kupuje u tych samych dystrybutorów i dlatego każda z nich zamówi dla Ciebie w zasadzie każdy sprzęt, jaki tylko jest na rynku. Jeśli kupujesz w firmie, która nie prowadzi magazynu, możesz mieć pewność, że nikt nie zaproponuje Ci zalegającego sprzętu, którego nikt nie chce wziąć. Ponadto możesz od razu poprosić o dozbrojenie komputera w dodatkowy RAM, dysk SSD czy instalację oprogramowania. Jakie są wady? Przy sprzęcie z niższej półki, zwykle będzie on parę procent droższy niż w sklepie internetowym. Dlatego takie rozwiązanie polecamy przede wszystkim wtedy, gdy kupujemy sprzęt trochę droższy – gdzie pewność i odpowiedni dobór mają duże znaczenie. Za 1500 zł można kupić sprzęt w sklepie internetowym, natomiast taki za 5000 zł – zdecydowanie odradzamy.

W kolejnych artykułach omówimy urządzenia i funkcjonalności w laptopach.

---

www.opcja.pl


Artykuł pochodzi z serwisu www.Artelis.pl

Dyski twarde i ich nieprzecenione zalety

Dyski twarde i ich nieprzecenione zalety

Autorem artykułu jest Karol Stopka



Bardzo ważną rolę w informatyce odgrywają dyski twarde, które są trwałą pamięcią komputera i dzięki którym możemy zapisać na komputerze wiele przydatnych, a czasem koniecznych informacji.

dysk twardyDzisiejszy świat rozwija się w niezwykle szybkim tempie. Coraz częściej zastanawiamy się, co jeszcze może powstać, aby ułatwić nam życie. Informatyka jest jedną z dziedzin, która pozwala nam bardzo manipulować rozwiązaniami. Na tym polu wiele możemy zdziałać.  Obecnie pamięć komputera to jedna z najważniejszych rzeczy, gdyż technologia jest tak rozwinięta, że czasem potrzebujemy, żeby nieograniczona liczba wiadomości została zapamiętana. Taka pamięć składa się przede wszystkim z dysków magnetycznych, na których zapisywane są informacje, których potrzebujemy, ale również z głowicy, która nie tylko zapisuje, ale również odczytuje dane zawarte na dysku.

Zapisane w pamięci komputera dane, powinny być dostępne do odczytu w jak najszybszym czasie. Dlatego dyski twarde są stale udoskonalane, by zapewnić jak największy komfort pracy. Dzięki temu, że pamięć komputera może być naprawdę duża możemy cieszyć się ogromną pomocą, jaka nam przynosi takie urządzenie. Dzisiejszy świat pozwala na wybranie odpowiedniej wielkości pamięci do naszego komputera i dlatego sami możemy zdecydować jak dużo może wiedzieć nasz komputer. 

Dyski twarde są konieczne, aby można było w odpowiedni sposób korzystać z komputera. Człowiek jest omylny i często wiele rzeczy zapomina, dlatego konieczne jest skorzystanie z komputera, aby przypominał nam lub przechował dla nas konieczne informacje. Dawniej stosowane były dyski miękkie, jednakże posiadały one znacznie mniej miejsca do zapisu niż dyski twarde, których precyzja zapisu jest tak ogromna, że wypierają one z rynku inne formy pamięci. Ogromne możliwości, jakie posiadają takie urządzenia sprawiają, że możemy wykorzystywać je do wielu czynności. Odpowiednie dobranie wielkości pamięci sprawia, że komputery staja się swoistą przechowalnia wiadomości, gdyż nie musimy już zastanawiać się gdzie przechowywać nośniki pamięci, które nie miały tak wielkiej pojemności i nie były odpowiednim zabezpieczeniem zawartych na nich informacji. Dzisiaj nie musimy się za bardzo przejmować, gdyż dyski twarde naszych komputerów są niezwykle trwałe, choć komputer to tylko maszyna i czasem może ulec awarii. 

Stworzenie tak trwałej pamięci, jaką posiada komputer przyniosło nam wiele wspaniałych rozwiązań, gdyż zastosowanie komputera i jego pamięci do wielu czynności sprawia, że my czujemy się znacznie bardziej wolni. Komputery, dlatego stosowane są niemalże w każdej dziedzinie, gdyż pamięć ich znacznie ułatwia nam wykonywanie obowiązków. Dzięki mądrym ludziom i stworzeniu odpowiedniej pamięci komputerowej możemy cieszyć się z tego, że takie niewielkie urządzenie jest w stanie zapamiętać ogromne ilości informacji w zależności od tego, jakie dyski wybierzemy. Coraz częściej komputery zastępują człowieka, gdyż zastosowana w nich pamięć jest bardziej niezawodna niż pamięć człowieka. 

---

Artykuł pochodzi z serwisu www.Artelis.pl

Ile energii zużywa komputer?

Ile energii zużywa komputer?

Autorem artykułu jest Rafał Krawczyk



Czy zastanawiałeś się kiedyś ile energii zużywa Twój komputer? Czy serfując całymi dniami w sieci albo zostawiając go włączonego na noc nie zwiększasz znacząco Twojego rachunku za energię? Przekonaj się.
Ile energii zużywa komputer? Sprawa na pozór wydaje się prosta. Wystarczy sprawdzić moc zasilacza, pomnożyć ją przez czas pracy komputera i mamy ilość zużytej energii.

kosztzł=mockW x czash x cena energiizł/kWh

Jednak wynik jaki otrzymamy nie będzie miał wiele wspólnego z rzeczywistością. Na tabliczkach znamionowych podawana jest bowiem moc maksymalna zasilacza. Faktyczne zapotrzebowanie komputera na energię na szczęście okaże się zdecydowanie niższe, poza ekstremalnymi przypadkami, gdy przykładowo mamy zainstalowane dwa dyski twarde, dwie karty graficzne, kilka wiatraków i kart rozszerzeń.

Ile energii zjada nasz zestaw komputerowy zależy od użytych podzespołów oraz rodzaju pracy. Podczas zadań obciążających procesor, pamięć, dysk i kartę grafiki (np. gra 3D) zużycie energii będzie większe niż podczas pracy w edytorze tekstu. Przykładowo: komputer zbudowany na platformie AMD 64 X2, 2x 1024 MB RAM, dysk: Samsung 320 GB, grafika: Geforce 8600 GTS, bez monitora w czasie bezczynności zużywa 87W mocy a w czasie maksymalnego obciążenia (np. podczas gry 3D) prawie dwukrotnie więcej.

Istotny wkład w zużycie energii przez zestaw komputerowy ma monitor. Przykładowo – 17 calowy kineskopowy (CRT) Philips zużywa od 90 do 125 W (w zależności od rozdzielczości i akurat wyświetlanych kolorów). Nieco oszczędniejsze są nowoczesne monitory ciekłokrystaliczne (LCD). W zależności od ustawień jaskrawości siedemnastka LCD w czasie pracy może pożerać od 30 do 60 W. Co ciekawe, nawet wyłączenie monitora, zarówno LCD jak i CRT przyciskiem na obudowie nie powoduje całkowitego odcięcia urządzeń od sieci – wciąż mogą pobierać nawet 5W mocy.

Wyścig procesorów trwa w najlepsze – każdego roku na rynku ukazują się jednostki o coraz większej mocy obliczeniowej, taktowane coraz wyższą częstotliwością. Wraz z tym rozwojem rośnie ich apetyt na energię. Pierwsze procesory Pentium (początek lat dziewięćdziesiątych) zużywały 10W, współczesne przewyższają tą wartość dziesięciokrotnie. Z pewnym uproszczeniem możemy stwierdzić, że im szybszy procesor tym bardziej energochłonny.

W domowym zestawie komputerowym, rekordowym apetytem na energię może pochwalić się drukarka laserowa – w czasie drukowania może pobierać z sieci 500W. Moc ta w większości jest zużywana przez grzałkę, wprasowującą toner w papier. Zważywszy na fakt, że jest to sprzęt używany dość sporadycznie, drukarka nie zwiększy na szczęście znacząco sumy na rachunku za energię.

A więc ile kosztuje energia zużywana przez nasz komputer? Średni pobór mocy większości nowych komputerów biurkowych wraz z monitorem LCD waha się w okolicach 150 W. Spróbujmy rozpatrzyć kilka standardowych przypadków używania komputera
- komputer używany sporadycznie, 2 godziny dziennie; miesięczny koszt: ok. 3,6 zł
- komputer używany intensywnie, 8 godziny dziennie; miesięczny koszt: ok. 14,4 zł
- komputer pracuje non-stop (np. ściągając pliki z sieci P2P); miesięczny koszt: ok. 43,2 zł

Oczywiście powyższy przykład ma charakter czysto poglądowy. Rzeczywisty koszt zależy od tak wielu czynników, że wymaga indywidualnego oszacowania. Jedynym pewnym sposobem na dokładne sprawdzenie ilości zużywanej energii jest dokonanie pomiaru za pomocą licznika energii.

W jaki sposób możemy nieco oszczędzić energii zużywanej przez komputer? Po pierwsze zdecydowanie oszczędniejsze od maszyn biurkowych są laptopy. Po drugie – jeżeli jeszcze posiadamy monitor kineskopowy najwyższy czas odesłać go do lamusa. I po trzecie – kupujmy komputer na miarę naszych potrzeb. Jeżeli nie planujemy grać w najnowsze gry, możemy wybrać konfigurację ze słabszym procesorem i kartą graficzną – zaoszczędzimy podwójnie: podczas zakupu i opłacania rachunku za energię.
---

Rafał Krawczyk, konwencjonalne i alternatywne źródła energii


Artykuł pochodzi z serwisu www.Artelis.pl

sobota, 20 listopada 2010

Jak skutecznie dbać o laptop

Jak skutecznie dbać o laptop

Autorem artykułu jest design man



Wielu posiadaczy laptopów niewystarczająca dba o swoją własność. Nie konserwują swoich komputerów i często używają ich w ekstremalnych warunkach. Oczywiście zdarzają się wady konstrukcyjne, na które nie mamy wpływu ale często jesteśmy w stanie skutecznie zapobiec usterką.

    laptop serwis naprawa sklep komputer konserwacja ASUS ACER TOSHIBA LENOVO HP SONY Vaio
    Po dłuższym okresie użytkowania każdy laptop będzie wymagał konserwacji. Wszechobecny kurz, unoszący się w powietrzu skutecznie gromadzi się we wnętrzu laptopa. Najwięcej kurzu zbiera się w kanałach wentylacyjnych, ponieważ wymuszony przez wentylator przepływ powietrza nasila proces gromadzenia się kurzu na radiatorze. Zadaniem radiatora jest skuteczne odprowadzanie ciepła z grzejącego się procesora. W przypadku osadzenia się warstewki kurzu zdolność odprowadzania ciepła maleje, ponieważ kurz jest izolatorem. Często prowadzi to do głośniejszej pracy wentylatorka chłodzącego, ponieważ aby zapewnić taką samą skuteczność odprowadzania ciepła, musi on kręcić się dużo szybciej. Dodatkowo błędem popełnianym przez większość użytkowników jest położenie laptopa na łóżku na przykład na kocu lub w pościeli. Problem w tym w większości laptopów otwory wlotu powietrza znajdują się na spodzie obudowy i położenie na łóżku całkowicie blokuje swobodny przepływ powietrza, co na dłuższą metę skończy się przegrzaniem procesora i zawieszeniem komputera. Kilkukrotne przegrzanie procesora może doprowadzić do jego trwałego uszkodzenia. Kurz osadza się również na matrycy, szczególnie staje się to widoczne w słońcu. To również kurz jest przyczyna tego, że nagle napęd DVD lub CD nie chce czytać niektórych płyt. Pewne rzeczy możemy wyczyścić sami. Natomiast gruntowną konserwację zostawmy specjalistą. Istnieje wiele serwisów laptopów, gdzie otrzymamy fachową pomoc. Przy niewielkich kosztach możemy uniknąć naprawdę kosztownych awarii. W skrajnych przypadkach mogą one doprowadzić nawet do nieopłacalności naprawy i konieczności wymiany laptopa na nowy.
    Najprostsze czynności, które możemy wykonać w domu to na przykład czyszczenie matrycy.  Istnieją specjalne ściereczki i środki przeznaczone do tego celu. Możemy się w nie zaopatrzyć ale jak się okazuje, równie dobre są proste domowe rozwiązania. Wilgotna ściereczka, delikatny papierowy ręcznik ( ręcznik o twardej fakturze mógłby pozostawić zarysowania ) skutecznie załatwią sprawę. Należy przy tym jednak bardzo uważać, aby nie przyciskać ściereczki do powierzchnię matrycy, ponieważ może to doprowadzić do jej wylania. Jeżeli chodzi o czyszczenie napędu CD lub DVD istnieją trzy proste metody czyszczenia. Możemy użyć sprężonego powietrza ( koszt ok 25 zł ), specjalnej płyty czyszczącej lub chusteczki higienicznej, którą delikatnie przeciera się soczewkę lasera. Do czyszczenia klawiatury bardzo pomocne jest użycie odkurzacza. Należy jednak pamiętać, że nie wolno przy tym zbytnio naciskać na klawiaturę, ponieważ mechanizmy, na których zamocowane są klawisze są bardzo delikatne i można przez przypadek wyłamać któryś z klawiszy. Można również użyć do tego celu, wspomniane wcześniej, sprężone powietrze. Czyszczenie kanałów wentylacyjnych to już bardziej skomplikowane zadanie. Kanały schowane są wewnątrz obudowy co utrudnia sprawę. Aby spowolnić proces zabrudzania i zapychania się kanałów, możemy użyć odkurzacza i sprężonego powietrza. Do wylotu kanału przykładamy ssawkę odkurzacza a do wlotu psikamy strumieniem sprężonego powietrza. Powinno pomóc, jednak efekt przy dłuższym czasie będzie niewystarczający. Czasem zdarza się, że zawiasy matrycy zaczynają bardzo ciężko chodzić. Nie wolno wtedy otwierać i zamykać obudowy matrycy na siłę, ponieważ prawie na pewno skończy się to popękaniem obudowy matrycy lub w skrajnych przypadkach wyłamaniem zawiasów. Należy wtedy oddać laptopa do serwisu celem regulacji zawiasów. Jeśli mowa o baterii, każda ma pewną określoną liczbę cykli ładowania, po przekroczeniu, której nagle przestaje działać. Wtedy pozostaje nam oddać baterię do regeneracji lub kupić nową. Regeneracja polega na zastąpieniu starych ogniw nowymi. Często jest tak, że zregenerowana bateria posiada ogniwa o większej pojemności niż zastosowane oryginalnie przez producenta. Niekiedy zregenerowana bateria, oczywiście ku uciesze użytkownika laptopa, wytrzymuje 30% więcej czasu niż oryginał. Aby przedłużyć wytrzymałość baterii wystarczy, że będziemy przestrzegać kilku prostych zasad. Jeżeli podłączamy laptopa pod ładowarkę, to odłączajmy go od zasilania sieciowego dopiero po zupełnym naładowaniu baterii (100%). Gdy nie zamierzamy używać baterii przez dłuższy okres czasu, rozładujmy ją do poziomu 40% i wyciągnijmy. Co kilka miesięcy powinniśmy rozładować akumulator do końca, to znaczy do czasu aż laptop się sam wyłączy. Ładowanie baterii zaczynajmy dopiero, gdy poziom energii spadnie do 10%.
    Pamiętajmy, że są to doraźne metody zapobiegania problemom. Nawet przy zastosowaniu się do wszystkich zaleceń i ostrożnym obchodzeniu się z laptopem, mogą wystąpić awarie. Wtedy niezastąpiony okaże się serwis, punkt naprawy. Regularne konserwacje dokonywane przez specjalistów, również są bardzo wskazane. W wielu przypadkach pomoże to nam zaoszczędzić sporo pieniędzy, które możemy przeznaczyć na przyjemniejsze rzeczy.

---

Artykuł pochodzi z serwisu www.Artelis.pl

Jak pracować na komputerze, żeby nie bolały oczy

Jak pracować na komputerze, żeby nie bolały oczy

Autorem artykułu jest Spiderman



Jeżeli musisz spędzać dużo czasu przed komputerem i może dodatkowo cierpisz na migrenę – przeczytaj, możesz sobie pomóc! Kilka porad od praktyka – w jaki sposób ograniczyć uciążliwe skutki długiej pracy przed komputerem.

W poście Jak czytać na ekranie komputera opisałem kilka moich sposobów na walkę z niewygodą użytkowania komputera. Dzisiaj chciałbym trochę temat rozwinąć. Jak już się przyznałem w recencji książki o migrenie - jestem nią "dotknięty". Sprawę dodatkowo komplikuje fakt, że jestem z IT - a więc przez cały dzień w pracy siedzę przy komputerze bo muszę, a w domu dalej siedzę bo lubię (bo np. pisze bloga). Generalnie - codziennie spędzam ok. 10-12 godzin przed monitorem (i w sieci, jak na Spidera przystało). Wobec powyższego uznaję że mam pełne prawo podzielić się swoimi sposobami radzenia sobie z problemem piekących oczy, jako "praktykujący praktyk".

Czyli do rzeczy.

Opis problemu - jest faktem ogólnie znanym, że jednym z powodów migreny są problemy ze wzrokiem. A nawet osoby które migreny nie mają często doświadczają bólu oczu na skutek patrzenia na monitor komputera. Gorzej że ból oczu powoduje najczęściej ból głowy. Ilość bodźców wzrokowych jest ogromna i nie zanosi się żeby było ich mniej. Przy obecnym trybie życia sporą jego część spędzamy przy komputerze, patrząc na ekran i coś tam czytając (np. ebooki lub tego bloga). Czy można jakoś zmniejszyć ilość dni,w których na wzrok będziemy narzekać?

Rozwiązanie wg Spidera:

Ja na kilka sposobów poradziłem sobie z problemem bólu oczu a następnie głowy przy długim patrzeniu na monitor. I proszę bardzo, oto one:

1. jakość monitora - to nie nowość, ale unikam wszystkiego co ma poniżej 75 Hz odświeżania. Chyba wszystkie obecne monitory to spełniają - tak więc jeżeli masz jakiś stary, to się go pozbądź i kup nowszy. Pewnym kłopotem sa notebooki - często mają 60 Hz. Sytuację ratuje tylko fakt, ze na monitorach LCD idzie to jakoś przeżyć.

2. rozmiar monitora - nie siadam przy niczym co ma powyżej 19". Przy szerokim ekranie ustawionym blisko - trzeba kręcić szyją, co powoduje bóle karku i także oczu (konsekwencja - ból głowy). Z drugiej strony minimalna wielkość to 15" (mówię o sytuacji, gdy mam monitor przed sobą na biurku i nie mogę go przybliżyć)

3. oświetlenie - jak każdy wie, patrzenie na refleksy świetlne nie jest dobre dla oczu. Ustawiam więc monitor tak, żeby nie siedzieć bokiem do jasnego okna

4. przerwy w pracy - nie dajmy się zwariować! jeżeli na chwile oderwiemy wzrok od monitora, to projekt się nie zawali!

5. okulary - to spory problem. Ja noszę niewielkie (-1, oczywiście cylinder i sfera jak to w standardzie dla IT) ale wystarczy żeby mieć dylemat czy w nich siedzieć czy nie przed monitorem. Mnie najbardziej służy gdy ich nie mam w czasie pracy. Ustawiłem sobie więc monitor tak, żebym widział dobrze bez okularów (Uwaga! dobrze nie oznacza że rozróżniam piksele - wydaje mi się że dużo osób na siłę chce widzieć wszystko wyraźnie - ja polecam przyzwyczajenie się do tego, że wcale nie trzeba)

6. soczewki - ja ich nie mogłem nosić w żadnym razie. Jeżeli widziałem dobrze na odległość - zamazywało mi się wszystko na komputerze

7. przenoszenie wzroku - to rzadko poruszana kwestia, ale wiele osób ma po prostu problemy z szybką akomodacją oka. Objawia się to tym, że bardzo szybko zaczynają boleć oczy i głowa gdy trzeba wzrok przenosić z przedmiotów dalekich na bliskie. Widać to np. gdy prowadzimy prezentację - patrzenie raz na monitor, raz na rzutnik wykańcza oczy w czasie kilku minut! To samo tyczy się monitora i okularów - gdy je zakładam do komputera, mogę się odsunać dalej (bo w okularach dobrze widzę) a potem przenoszę wzrok bliżej na notatki lub klawiaturę - murowany ból głowy. Można to ćwiczyć właśnie przenosząc wzrok na dalekie i bliskie przedmioty (jednak zasięgnij najpierw rady specjalisty). Ale na razie nie mam innej metody, niż ograniczanie takich ruchów - np. ustawienie monitora tak, żeby było widać przez niego rzutnik i pogodzenie się że widać jak za mgłą.

8. organizacja biurka i miejsca do siedzenia - tu posłużę się swoim wpisem na ten temat. Generalnie chodzi o to, że nie można dopuścić do sytuacji w której jakieś mięśnie karku lub barków będą się męczyć. Dobrze jest mieć jakiś kwiatek lub coś zielonego, na co można sobie popatrzeć dla odpoczynku (ja mam krzewy i trawnik za oknem - przy okazji dobre ćwiczenie dla oka)

9. dobrze jest wyeliminować inne zakłócenia, szczególnie te które powodują psychiczne napięcie (np. głód) i w ogóle nie siadać przed monitorem gdy jesteśmy zdenerwowani. W takich chwilach działa adrenalina i np. bardziej wytężamy oczy i napinamy mięśnie karku, co kończy się stresem i bólem głowy

Tyle drobych rad, natomiast pozostaje kwestia najważniejsza. I na dodatek bardzo subiektywna. Chodzi o opisywane już "widzenie zbyt dużo" czyli natężanie wzroku. Pierwsza rzecz, najtrudniejsza - nie może nam na patrzeniu w monitor zbytnio zależeć :) - czyli po prostu ma to być tak od niechcenia. Szczególnie wyraźnie widać to przy grach, które maksymalnie skupiają wzrok. Zobaczcie jak wygląda osoba która gra na komputerze - jak na niego patrzy. Nic dziwnego, że w takim stanie po 1-2 godzinach pojawiają się łzy i pieczenie oczu. Jak więc sprawdzić czy dobrze patrzymy? Ja robię tak : odwracam się od komputera (nie mam wtedy okularów, jak pisałem nie używam ich przy komputerze) i patrzę na coś co widzę dobrze i nie sprawia mi to wysiłku. Teraz staram się zapamiętać to uczucie i napięcie mięśni. Odwracam się do komputera i sprawdzam czy coś się zmieniło. Jeżeli zauważam że pojawia się jakiś wysiłek - stanowisko jest źle zorganizowane. Wtedy próbuję coś zmienić (np. oddalenie monitora) i ponownie sprawdzam. Z biegiem czasu można wyćwiczyć sobie taką reakcję. Ważne jest uświadomienie sobie, co nam tak naprawdę przeszkadza. No i kontrola, czy zaczynamy wytężać oczy. Jeżeli tak - należy przerwać i odpocząć.

---

Artykuł pochodzi z serwisu www.Artelis.pl

Microsoft Prezentuje Windows Phone 7

Microsoft prezentuje Windows Phone 7

Autorem artykułu jest Jarek Sierka



Jeszcze nie zdążyliśmy ochłonąć po prezentacji Nokii na temat systemu MeeGo, a już nasze oczy zaczął przykuwać najnowszy produkt Microsoftu a mianowicie Windows Phone 7. Czy czeka nas coś nowego? Zapraszam do artykułu.

A zaczęło się w garażu...

To najczęstszy początek historii o sukcesie Billa Gatesa i jego firmy. Że zaczął w garażu, że miał za duży sweter, że porzucił studia itp. Wszystko to raca, jednak faceta nie poznaje się po tym jak zaczyna a po tym jak kończy. A Bill najwyraźniej kończyć nie zamierza. Właśnie wydysponował kolejny miliard dolarów na reklamę swojego najnowszego dziecka czyli Windows Phone 7. Pewnie powiecie, co to dla niego takie pieniądze? Jednak faceci na pozycjo takiej jak On, już dawno przejmują się pieniędzmi.

Nic nowego, po prostu Windows

Przejmują się za to swoją pozycją, wpływami itp. Bill najwyraźniej chce poprawić swoją pozycję na rynku systemów operacyjnych na telefony komórkowe, chce tym samym przypomnieć użytkownikom WIndows Mobile, że wraz z rozwojem Xp do wersji 7, idzie wzrost Windowsa w wersji mobilnej. Tym razem jednak poprzeczka powieszona jest wyżej, aby w ogóle uruchomić Windows Phone 7 potrzebujemy przynajmniej 1 Giga procesor oraz 512 RAM. A, bym był zapomniał, to ma być komórka a nie komputer stacjonarny.

Specyfikacja

Nowy WIndows, prezentuje się wyśmienicie, od samego początku twórcy przewidzieli dla niego szereg rozwiązań oraz aplikacji, które powinny przypadnąć do gust odbiorców. Jednak, tutaj Microsoft tnie gałąź na której sam siedzi ustalając bardzo wysokie stawki za te aplikacje, których ceny często przekraczają 10$, kiedy to u konkurencji podobne rozwiązania kosztuję trzy razy mniej! To pierwsza z wad systemu, na którą narzekają już użytkownicy. Do naszej dyspozycji dostaniemy także Windows Office, jednak tutaj nie można powiedzieć ani jednego złego słowa.

Podsumowanie

Windows mimo wielu konkurentów, nie daje za wygraną i nie chce się tak łatwo poddać, teraz wszystko zależy od odpowiedniej reklamy oraz tego czy tradycjonaliści wychowani na "niebieskim okienku" pójdą krokami mistrza, czy jednak wybiorą konkurencję tutaj głównie po piętach będzie deptał MeeGo, Android oraz Iphone. Moim skromnym zdaniem, firma z Doliny Krzemowej znowu wyjdzie z opresji obronną ręką i jeszcze długo będziemy używać programów Windows

---

Artykuł pochodzi z serwisu www.Artelis.pl