Flash Player 10.1
apkを探して直接入れてみたが、ブラウザが立ち上がらなくなっちゃった。
やっぱりダメなのか。
WindowsXPでUSB経由のテザリング
ちょっとハマったが、ActiveSync4.5をインストールすると無事認識した。
plaggerで出力したRSS
なぜかfirefoxやthunderbirdで読めない。
途方に暮れて、goo RSSリーダーで試してみても読めない。
onlineのリーダでは読めるのになぁ。
(追記)
どうも半角カナが混じっていたからっぽい。Encode使って全角に変換したら無事認識した。
EeePCが突然スタンバイ
この前、EeePC 901-Xを買ったのですが、
買った当初から突然スタンバイモードに入る不具合が。
復帰はするのですが、ランダムにスタンバイモードに入ります。
長く持つ場合もあれば、復帰した直後に再びスタンバイに入る場合も。
スタンバイから復帰できなくなる不具合はネット上で散見されますが、
こういうのは見あたらず。
サポートに電話しても分からず、結局修理に出すことになりました。
google calendar by firefox3 via proxy
だいぶ前に解決していたのですが、一応メモ。
firefox3にしたとたん、会社のproxy越しに見れなくなっていたgoogle calendarですが、原因がわかりました。
どうもgoogle analyticsが悪さをしているようです。理由はよくわかりませんが、googleの認証ページへのアクセスとgoogle analyticsへのアクセスを交互に延々と繰り返す状態になっています。live http headersで見ると。
ということで、google analyticsへのアクセスを切ってしまえば大丈夫だろうということで、add-onのadblock plusを用いて、
へのアクセスを遮断してみました。すると認証ページを経て、無事google calendarが表示できました。
adblock plus、初めて使ってみたのですが、便利ですね。広告などの遮断はもちろん、自分で仕掛けたアクセスカウンタを自分で踏みたくないときなんかにも使えるなと。
Firefox3 RC1にしたら
会社のプロキシ越しにgoogle calendarが見られなくなった。
なんで??
セカンド・オピニオンの目次があんまりなのでWeb::Scraperしてみた
use strict; use warnings; use URI; use Web::Scraper; use Encode; my $url = 'http://journal.mycom.co.jp/column/sopinion/index.html'; my $http_proxy = 'http://proxy.hogehoge.com:8080/'; my $scraped = scrape_mycom_links($url, $http_proxy); foreach my $link (@{$scraped}){ my $scraped_column = scrape_mycom_column($link, $http_proxy); my $link_html = "-<a href=\"" . $link . "\">"; $link_html .= encode('euc-jp', $scraped_column->{'subtitle'}) . ": "; $link_html .= encode('euc-jp', $scraped_column->{'articletitle'}); $link_html .= "</a>\n" ; print $link_html; } sub scrape_mycom_links{ my $url = shift; my $http_proxy = shift; my $links = scraper { process 'table.tableStyle01 tr>td>a', 'links[]' => '@href'; result 'links'; }; $links->user_agent->proxy('http', $http_proxy); my $scraped = $links->scrape(URI->new($url)); } sub scrape_mycom_column{ my $url = shift; my $http_proxy = shift; my $titles = scraper { process '#articleMain >h2', 'title' => 'TEXT'; process 'h3.subtitle', 'subtitle' => 'TEXT'; process 'div.articleContent >h3', 'articletitle' => 'TEXT'; process 'div.articleContent >p', 'paragraph' => 'TEXT'; result 'title', 'subtitle', 'articletitle', 'paragraph'; }; $titles->user_agent->proxy('http', $http_proxy); my $scraped = $titles->scrape(URI->new($url)); $scraped->{'articletitle'} = $scraped->{'paragraph'} if not defined $scraped->{'articletitle'}; return($scraped); }続きを読む