Nie jesteś zalogowany.
Jeśli nie posiadasz konta, zarejestruj je już teraz! Pozwoli Ci ono w pełni korzystać z naszego serwisu. Spamerom dziękujemy!
Prosimy o pomoc dla małej Julki — przekaż 1% podatku na Fundacji Dzieciom zdazyć z Pomocą.
Więcej informacji na dug.net.pl/pomagamy/.
Cóż, temat mądrze brzmi, ale do rzeczy :)
Witam!
Ostatnio przez moją głowę przeszedł pewien szalony pomysł. A gdyby tak zorganizować sobie bezpłatny Internet? Najkrócej mówiąc, mam na myśli poprowadzenie technologii P2P o jeden krok dalej. Projekt chcę nazwać NTWeb (New Technology Web). Ale po kolei.
Moim podstawowym założeniem jest darmowość dostępu do Internetu oraz niemożność kontrolowania treści (jakiejkolwiek cenzury). Każdy komputer z odbiornikiem/nadajnikiem w takim przypadku byłby jednocześnie serwerem i klientem. System rozproszony, więc nie ma możliwości, żeby wziąć i po prostu go wyłączyć. Sądzę także, że mogłoby to być ciekawe rozwiązanie dla krajów cenzurowanych. Odbiorniki/nadajniki byłyby zaprojektowane i stworzone na licencji GPL3 – tak, że każdy mógłby sobie w domu taki zbudować i modyfikować, a producenci nie mogliby zastrzec wszystkiego.
Cała idea opiera się na połączeniu kilku koncepcji. Byłoby to połączenie sieci TOR, sieci P2P i technologii WiMax (lub innej podobnej). Ważnym elementem zaczerpniętym z sieci TOR byłoby szyfrowanie, z sieci P2P rozproszenie a z technologii WiMax zasięg.
Zamierzam wykorzystać łączność za pomocą fal radiowych.
Teraz jak działa system.
Chcę, żeby przystawki były jak najbardziej mobilne i modyfikowalne pod względem potoków (o tym za chwilę). Podstawka łączy się z komputerem przez USB, zasilana byłaby prawdopodobnie przez SATA lub inny port (wciąż nad tym myślę, nie chciałbym przeciążyć portu USB) – dane z USB przechodzą przez sterownik, trafiają do pluginu przeglądarki (f*** you, IE – przepraszam, musiałem), który zapewnia obsługę nowego protokołu – chcę wykorzystać takie rozwiązanie, by ludzie mogli zostać przy swoich przeglądarkach, ponieważ są dobre i dopracowane – nie chcę tworzyć nowej, specjalnej przeglądarki tylko dla tego protokołu.
Z czego składałaby się przystawka? Nie będę na razie rysował schematu – jeśli źle wytłumaczę, narysuję później i zeskanuję. Oczywiście przede wszystkim z anteny. Potem jest pamięć CACHE, być może pamięć FLASH (najlepiej wymienialna na karcie microSD), bramka logiczna wyboru oraz zbiór procesorów o stosunkowo niskich częstotliwościach – chodzi o przetwarzanie wielopotokowe (wykorzystanie procesorów z kart graficznych?). Bramka logiczna w tym wypadku nie jest do końca bramką, ponieważ musi podjąć decyzję na podstawie danych – to raczej też mały, osobny procesor – sprawdza, czy zapytanie jest skierowane do nas, czy do kogo innego – a jeśli do kogo innego, to czy możemy sygnał przekazać dalej, czy nie. Ideą wielopotokowości w tym wypadku jest obsługa jednego połączenia przez jeden potok (lub jednego pośredniczenia w połączeniu),co ma zapewnić jak największą prędkość i jak najmniejsze latency. System powinien być tak zbudowany, by można było łatwo dodać pamięć FLASH oraz wymienić procesory na szybsze i obsługujące większą ilość potoków. System powinien działać tak, że na podstawie własnych parametrów (pamięci, procesora i ilości potoków) ma wyliczyć dla użytkownika maksymalną dostępną dla niego prędkość i do tej prędkości go ograniczać (być może nadawać pakietom priorytet?). Powinno to zapewnić w jakimś stopniu naturalny rozwój przepustowości i zmniejszenie latency – chcesz szybszy Internet, to kup lepszy procesor, żeby inni też mogli mieć szybszy Internet. Naturalna ewolucja. Być może warto też zastosować przelicznik „godzin pracy” – im więcej czasu jesteś w sieci pośrednicząc innym w połączeniach, tym więcej masz „punktów”. Ograniczy to problem przerywania transmisji.
Adresowanie – to jest temat, nad którym wciąż myślę. Uważam, że przystawka powinna mieć dwa adresy: adres fizyczny – niezmienny i niezmieniany – oraz adres geograficzny – zależny od położenia. Zastanawiam się nad adresem fizycznym w formie numerycznej lub alfanumerycznej. W pierwszym przypadku mielibyśmy do czynienia z połączeniem tak, jak w telefonie komórkowym – ale jest to dość nieintuicyjne (zamiast Google.pl wpisujemy 12347912470984?). Z drugiej strony, jeśli jest to system rozproszony, to kto miałby przydzielać taki adres fizyczny – czy to numeryczny czy też alfanumeryczny? „Sieć” jako taka musiałaby podejmować tą decyzję – jako system inteligentny sam w sobie – wysłać zapytanie do wszystkich, czy taki adres jest już zajęty – i jeśli nie, to przydzielić – można ze spokojem zrezygnować z domen krajowych – rozwiązanie to jednak może wywołać nadużycia. Teraz adres geograficzny. Ponieważ z założenia przenośności antena raczej nie powinna mieć 10 metrów, należy stosować przekazywanie połączenia. W momencie logowania do sieci przystawka wysyła swój adres fizyczny i geograficzny do najbliższych innych przystawek oraz pobiera od każdej z nich po kilka/kilkadziesiąt/kilkaset? Zestawów adresów fizycznych i geograficznych. Chcąc się połączyć, znając adres fizyczny, wysyłamy zapytanie do sieci o adres geograficzny. Zakładając, że każde urządzenie posiada w pamięci część adresów (myślę, że byłby problem z pojemnością i synchronizacją, gdyby każdy miał trzymać wszystko) któraś przystawka powinna mieć odpowiedź. Jeśli żadna przystawka nie ma odpowiedzi, to nasza przystawka ponownie wysyła zapytanie z wyższym priorytetem i zapytanie to przekazywane jest dalej, od najbliższych przystawek, do tych położonych dalej. Gdy w końcu uzyskamy adres geograficzny przystawki, z którą chcemy się połączyć, możemy zastosować algorytm wyszukiwania najkrótszej drogi – np. A*. W tym celu Ziemia musiałaby być podzielona na obszary. Zapytanie byłoby kierowane po adresach geograficznych i przekazywane od przystawki do przystawki. Po dotarciu do urządzenia do którego wysłaliśmy zapytanie – tutaj inaczej, jak w sieci TOR – byłoby ustanawiane stałe połączenie przez te przystawki, przez które doszliśmy dzięki algorytmowi A*. Od tego momentu połączenie powinno być ściśle szyfrowane (AES256? AES512? System ma służyć bez zmian jak najdłużej) – tak, aby przystawki pośredniczące nie miały możliwości podsłuchania transmisji. Jeszcze jednak uwaga – algorytm A* powinien być zmodyfikowany tak, by celem pierwszorzędnym było wysłanie sygnału poza obręb miasta do miasta następnego – dzięki czemu sygnał nie musi iść przez całe miasto.
Problem poczty i komunikatorów. Zastanawiam się nad tym. Być może rozwiązaniem byłaby jakaś implementacja Jabbera. A być może można by zastosować protokół IMAP tak, jak jest.
Problem serwerów. Jak mówiłem, każdy komputer byłby klientem, pośrednikiem i serwerem. Sterownik umożliwiałby wydzielenie obszaru na swoim dysku twardym, który byłby widoczny przez innych. To ma być takie proste. Większe serwery musiałyby zaopatrzyć się w odpowiednią ilość przystawek obsługujących setki albo i tysiące potoków.
Problem anteny. W tym temacie dobry nie jestem i tu chcę się zapytać o sugestie. Wiadomo, że poza miastem na dużych, wolnych przestrzeniach zasięg jest o wiele większy. Myślę, że wystarczającym zasięgiem maksymalnym jest 50-100 km, ale mogę się mylić. Chodzi mi o skok między miastami. Jaka może być najmniejsza gabarytowo antena użyta dla tej odległości? Czy wielkość anteny już z góry nie przekreśli tej „technologii”?
Problem częstotliwości. Wiadomo, że fale mogą być zakłócone. Problem ilości danych przesyłanych przez taką sieć może zaistnieć w miastach. Przystawka musiałaby być tak skonstruowana, by móc obsługiwać kilka kanałów, gdyż niektóre kanały mogą być w miastach przeciążone. Zastanawiam się ile i kanałów trzeba by wykorzystać. Na pewno zależy to od zasięgu, który właśnie musi być tak dobrany, by w mieście był mały, ale na tyle dobry, żeby umożliwiał skok między miastami. No i jeszcze problem „upierdliwców”, którzy mogliby „floodować” częstotliwości. No, ale zakłócanie pasm radiowych nawet u nas jest zabronione i karalne. Z drugiej strony, duże koncerny jakoś to robią, że gigantyczne ilości danych mogą być przesyłane przez 3G.
Problem przerwanej transmisji. Jeden z komputerów w „łańcuchu” może wypaść na dwa sposoby: 1. Gentle – grzecznie, przez wylogowanie, uprzednio znalazłszy inną przystawkę, która może pośredniczyć w połączeniu lub brute – i wtedy nasza przystawka musi znów szukać „ścieżki”, ale od miejsca, w którym połączenie zostało zerwane, a nie od początku (znamy adres geograficzny ostatniego komputera).
Wydaje mi się, że słabymi punktami tej technologii mogą być właśnie anteny i zapychanie częstotliwości. Chciałbym poznać Wasze opinie, porady i sugestie na temat takiej technologii. Być może są jakieś problemy, które uniemożliwiają zastosowanie czegoś takiego w praktyce – ale jeśli nie, to założę stronę, Wiki, git hub i od tego momentu projektowi status OpenSource na licencji GPL v3, który ma mu zapewnić nietykalność :)
Zamieściłem te moje wypociny na kilku forach, które czytuję i które szanuję, a których ludzie mogliby mi pomóc. Na razie polskich forach, bo szukam rad i pomocy. Więc ten artykuł znajdziecie też gdzie indziej w sieci.
Pozdrawiam!
Łukasz P.
PS. Wiem, że trochę obszerne :) Dziękuję wszystkim, którzy dotrwali do końca tego nudnego posta!
Offline
Twój pomysł na "darmowy internet" okaże się dużo droższy niż ten z którego korzystam. Zasięg urządzeń to nie wszystko. Pamiętaj, że takie urządzenia kosztują im większy zasięg tym są droższe. Do tego dochodzi taka instytucja jak PAR, która wydaje zezwolenia na używanie takich urządzeń( musisz mieć odpowiednie homologacje)...nawet routery wifi mają wydzieloną częstotliwość i odpowiednio małą moc urządzenia...trzymam kciuki za powodzenie Twojego projektu.
Offline
Prawda, zasięg to nie wszystko.
PAR jednak jest problemem drugorzędnym, ponieważ:
1. testowanie myślę, że można przeprowadzić na pasmach radioamatorów;
2. gdyby projekt (to chyba zbyt duże słowo, raczej wolna myśl :)) miał rzeczywiście wejść w życie - czyli wystarczająco dużo pojedynczych osób by go poparło - to albo organizuje się zbiórkę na pasmo, albo naciska na władzę. Teoretycznie po to jest władza, by pomagać ludziom. Teoretycznie.
W zasadzie jest to projekt niekomercyjny, z założenia hardwareowo i softwareowo OpenSource i tylko jako taki miałby szansę zaistnieć. Jeśli nie byłoby wystarczająco dużo ludzi, to i tak nie ma wtedy sensu.
Ostatnio edytowany przez lukaszpp.alias (2012-06-04 18:08:45)
Offline
Chyba taniej by wyszło zrobić projekt NIC'a - Wszędzie hotspoty Bluetooth :D
Fervi
PS. Jak jest sens i da się zrobić to czemu nie? Chociaż w Polsce to może być trudne
Offline
IMO marzyciel z cb, ale póki co na rynku można mieć za free dostęp do neta, przez Aero2, ale jeśli jużby to miało być przez radio, to dlaczego WiMax, a nie np. CDMA? Z tego co wiem, CDMA jest cholernie odporny nawet na drzewa ;) (jedyne radio które rusza u mojego kumpla w lesie - Orange - i do tego ma 4/5 zasięg :) ), a z tego co wiem najbliższy mi nadajnik jest ograniczony o jakieś noo z 15 km (kumpel mieszka jeszcze jakiś kilometr dalej)
Ostatnio edytowany przez thomsson (2012-06-04 18:35:26)
Offline
Niby tak, ale Aero2 chyba za 2 lata nie będzie już darmowe i nie będzie New Technology Web :P
Może coś na zasadzie hotspotów? Robisz menadżer połączeń (a'la WICD / NM), gdzie każdy może wpisać hasła do hotspotów, (tzn. nazwa -> hasło), a menadżer połączy z aftamata z sieciami o ile są w bazie i tyle :D
Powiem, że 3G jest strasznie drogie, więc może znakami dymnymi będziemy przekazywać informacje?
Fervi
Offline
Widzę następujące problemy
1. - problem jeśli będziesz się opierał na adresach geolokalizacyjnych jeśli jadę samochodem mam adres po zalogowaniu, po zerwaniu połączenia dostaje nowy i osoba ma problem z nawiązaniem poĸłączenia (chyba że do komunikacji i identyfikacji użyjesz czegoś innego).
2. Kolejny problem wynikający z faktu że nie masz magistrali (swojego szkieletu sieci o który dbasz) to ze względu na to że ludzie wtłaczają sprzęt to będzie to bardzo niestabilne szczególnie jak będziesz przysłał dane między np 30 pośrednikami.
3. Do sprawnego działania potrzebny jest dość tani sprzęt a wspominane technologie nie są zbyt tanie, dodatkowo jeśli delikwent ma sam sobie zbudować CPE (sprzęt odbiorczo nadawczy) to maleje popularność ponieważ generalnie mała ilość ludzi się zna na elektronice. EW jak mieli by kupować ten sprzęt od ciebie musiał by być tani podejrzewam że nikt nie dał by za sprzęt więcej jak 100 zł
4. Kolejna sprawa to raczej nie darmowy internet tylko rozbuchana sieć lokalna (brak węzłów styku z internetem, żadna firma nie zainwestuje w niesprawdzoną technologię by włączyć się do waszej sieci)
WG mnie pomysł mało realny ale jeśli dzięki niemu masz podnieść swoje umiejętności i sprawia Ci on wielką radość to go rozwijaj hobbistycznie
Offline
http://netsukuku.freaknet.org/?pag=home
Podobny projekt, tylko w zasadzie korzysta z software i dostępnych technologii (przede wszystkim WiFi). Tylko wygląda na trochę martwy.
Dowiedziałem się też, że takie sieci się już robi, ba, nawet powstał standard! Pozdrowienia dla sceptyków ;)
https://pl.wikipedia.org/wiki/802.11s
Czyli wynajdywanie koła na nowo raczej mija się z celem. Niemniej dzięki wszystkim za uwagi.
Offline
Nie wczytywałem się, ale padły słowa mesh i jakiś refer do IEEE. W Afryce większość sieci jest na mesh'ach zbudowanych z router'ów bezprzewodowych. Jakieś HowTo namierzyłem, gdy szukałem coś o Wireless Sensor Network.
Zaś w domu swego czasu próbowałem zestawić WDS (wykorzystanie bridge'owania na AP) - prawie się udało na trzech routerach WiFi, ale nie polecam nikomu - mordownia jakich mało. Ale, routery Asmax generowały ramki STP, czyli jakieś drzewo rozpinające się w tej sieci robiło. Sieć jest bardzo niestabilna.
Offline