Kilka dni temu pojawił się BackTrack 4 Pre Release , który można pobrać z remote-exploit.org. Szczerze mówiąc, choć zastąpiłem BT3 przez BT4 na moim pendrive , to nie miałem wiele okazji, by dokładniej przyglądnąć się zmianom, zresztą co do użyteczności LiveCD mam dość mieszane uczucia. Z tego, co udało mi się sprawdzić, wspieranych jest więcej kart sieciowych (między innymi karty w moich laptopach). Być może po dwóch latach odświeżę przewodnik o łamaniu WEP, choć w zasadzie tamten wpis wciąż spełnia swoją rolę – pokazuje, jak łatwe jest złamanie sieci wykorzystującej WEP. Muszę przyznać, że sytuacja trochę poprawiła się w tym czasie. Obecnie tylko dwie z ośmiu sieci, w których jestem zasięgu, korzystają z WEP, pozostałe z WPA (z wyjątkiem jednej gołej, wesołej i otwartej na nowe kontakty).
Od dłuższego czasu na mojej liście narzędzi znajduje się Mandiant Highlighter (patrz wpisy na blogu M-unition: Mandiant Highlighter v1.0, Highlighter v1.0.1 Released, Highlighter v1.1.1 Released). Narzędzie to, w dużym uproszczeniu, służy do wspomagania analizy plików tekstowych, na przykład wszelkiego rodzaju logów. W związku z przeprowadzką bloga i zmianami, które w nim wprowadzam, kilka rzeczy w logach sprawdzam i muszę przyznać, że Highlighter okazał się całkiem sympatycznym narzędziem, choć początkowo miałem pewne wątpliwości co do jego przydatności. Jednocześnie polecam forum Highlighter: Bug Reports, bo kilka uciążliwych błędów jednak jest.
Wczoraj pisałem o narzędziu Slowloris. Zastanawiam się, czy tej samej koncepcji nie da się zastosować w drugą stronę – do ataku na przeglądarkę klienta. Prawdopodobnie ilość równoległych połączeń, jakie przeglądarka może nawiązać, jest ograniczona (i nie chodzi mi tu o ograniczenia zapisane w RFC 2616), tak więc teoretycznie można skonstruować stronę, która wyczerpie całą pulę dostępnych dla przeglądarki połączeń, a to w rezultacie spowoduje, że żadna nowa strona nie będzie mogła zostać otwarta. Sens takiego scenariusza jest raczej dyskusyjny, choć w niektórych przypadkach atak taki mógłby być uciążliwy (np. fora pozwalające na wstawienie zewnętrznych obrazków).
Jak być może pamiętacie pisałem o problemie związanym z memory leak (Miałem memory leak). Poprzez blog Network Monitor przesłałem zapytanie, czy problem jest znany. Okazało się, że nie. Rozpoczął się proces diagnostyki błędu, przesłanie informacji o konfiguracji, sposobu odtworzenia błędu, (...). W końcu pojawiła się pytanie o możliwość wykonania memory dump i przesłania go do analizy. Niestety, musiałem odmówić.
Kilka informacji o zmianach, które wprowadziłem pod maską bloga, które docelowo mają zmniejszyć ruch generowany przez różnego rodzaju spidery (przede wszystkim googlebot).
Na początku odsyłam wszystkich do sekcji Document caching w Browser Security Handbook. Później zapraszam pod adresy (tak, w przypadku SSL certyfikat nie jest prawidłowy i tak ma być):
Kilka razy wypowiadałem się pozytywnie o Threat Modeling , głównie w kontekście aplikacji internetowych. Właśnie ukazał się IT Infrastructure Threat Modeling Guide, czyli przewodnik odnośnie zastosowania modelowania zagrożeń dla infrastruktury IT.