facebook twitter hatena line google mixi email
★お気に入り追加


■ このスレッドは過去ログ倉庫に格納されています

  • 1
  •  
  • 2014/11/20(木) 16:04:08.07
ProxydomoはProxomitronのクローンソフトProximodoを基にして作られたプロクシフィルタリングソフトです

---- 配布・公式サイト ----
amate/Proxydomo
https://github.com/amate/Proxydomo
lafe @ ウィキ - Proxydomo
http://www31.atwiki.jp/lafe/pages/37.html

---- 関連スレ ----
【前スレ】Proxomitron Part 31
http://peace.2ch.net/test/read.cgi/win/1328625684/
Proxomitron フィルター作成スレッド Part15
http://anago.2ch.net/test/read.cgi/software/1383031170/
【Proxomitron】 proximodo 【後継】
http://pc11.2ch.net/test/read.cgi/software/1110563904/

ここまで見た
  • 692
  •  
  • 2018/08/24(金) 15:11:07.78
1行めがうまくエスケープできませんでした。
|\ | ではなく |\ | です。

ここまで見た
  • 693
  •  
  • 2018/08/24(金) 16:33:35.98
そもそも$NESTの使い方がおかしいような
$NESTのstart_matchは複数回呼ばれるから$TSTとの組み合わせは意図した動作にならないだろう

(<p> </p> )+{1,*}
二行目のこれはちゃんと動いたけど
ttp://www.geocities.jp/lafe_be/
フィルターのチェックを忘れてるとかWebページフィルターを有効にしてないというオチじゃないの

ここまで見た
  • 694
  •  
  • 2018/08/25(土) 14:02:45.65
>693
どうもありがとうございます。
$NEST の使い方はまだよく理解できない部分がありますので、自分のほうの問題ですね。
<p[^>]+>(\s|\&nbsp;|$NEST(<(span|br|b|font),>)| |\&#160;|</(span|b|font)>)+(</p>|(^(^<p>)))
このように $NEST $TST を使わないものも書いていますが、同じ結果になります。

[Patterns]
Name = "test"
Active = TRUE
Limit = 96
Match = "(<p> </p> )+{1,*}"

ttp://www.geocities.jp/lafe_be/
では私の環境でもマッチしました。
ttp://tokiwa-ran.hatenablog.com/
ではこちらではいかがでしょうか。私の環境ではマッチしませんでした。
共有のコンピュータを利用している都合で Proxydomo 最新版の使用には支障があるため、1.100 での実行結果です。
Proxomitron 4.5+7 でもマッチしません。
いずれもほかのページフィルタはマッチします。

ここまで見た
  • 695
  •  
  • 2018/08/25(土) 14:26:50.76
>>694
そのサイトのソース見て分かったわ
そのサイトの<p> </p>で囲まれているのはスペース(0x20)ではなく、
ノーブレイクスペースっていう特殊なスペースなんだ(0xA0)
オミトロンの仕様で半角スペースがマッチするのは
NUL(0x00) , HT(0x09) , LF(0x0A) , CR(0x0D) , SPC(0x20)
だけで、0xA0は含まれていないのでマッチしなかったっていうわけだ

(<p>( |[%A0]+)</p> )+{1,*}
と書き換えればマッチするはず

ここまで見た
  • 696
  •  
  • 2018/08/26(日) 00:25:51.73
>>695
\sってdomoとかmodoでは使えないんだっけか

ここまで見た
  • 697
  •  
  • 2018/08/26(日) 00:40:01.31
>>696
proxydomoでも\sは使えるけど、それぞれの仕様は
\sは1個以上の空白文字
スペースは0個以上の空白文字
空白文字は上に挙げた5つのことだから
\sに変えたところでマッチはしない

ここまで見た
  • 698
  •  
  • 2018/08/26(日) 12:56:30.96
>695-697
おかげさまで長年の疑問が解決しました。どうもありがとうございます。
「ブロックリストは"[%aa][%ab][%ac]"などのエンコードがされている場合、元の文字列にデコードして、ファイルの文字コードをUTF8として保存してください」
と domo の説明にあるので [%A0] が使えるのかと思ったのですが、これで通りました。

ttp://gosyujin.github.io/2013/08/26/utf8-space-c2a0/
ttps://blog.fenrir-inc.com/jp/2011/06/post_51.html
non-breaking space のほかにも空白に見える文字はいくつかあるようです。
直接関係ありませんが、google 検索結果のフィルタを書いているときにゼロ幅の制御文字が含まれていて対応に苦慮したことを思い出しました。

ここまで見た
  • 699
  •  
  • 2018/09/05(水) 04:53:48.87
いつもお世話になっております。
$FILE()を初めて使ってみたのですが、
[HTTP headers]
Key = "URL: okikae"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "google.co.jp/aaa*"
Bounds = ""
Limit = 1024
Match = "htt●://google.co.jp/(aaa*)\0"
Replace = "$RDIR("
"$FILE(略/u.txt)"
"\0)"
で、u.txtは、httpから始まるURLを一行記載して、Windowsのメモ帳でUTF-8で保存しました。
実際にページを読み込んでみると使えず、
ログウインドウには、h ttpと、2文字目にスペースのようなものが入っていて、これが原因かなという気がしてます。
Webページフィルタのテストウインドウでu.txtを使った場合、スペースらしきものは入ってません。
間違ってる部分のご指摘お願いします。

ここまで見た
  • 700
  •  
  • 2018/09/05(水) 07:04:34.59
>>699
BOMが入ってるせいだな
メモ帳以外のソフトを使ってBOMを付けずに保存してみ

ここまで見た
  • 701
  •  
  • 2018/09/21(金) 01:03:03.28
初めてお世話になります。
$USEPROXYを使って5chだけProxyを通そうと思ったのですが

[HTTP headers]
Key = "URL: Proxy ON (Out)"
In = FALSE
Out = TRUE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "[^/]++.5ch.net|[^/]++.bbspink.com"
Bounds = ""
Limit = 256
Match = ""
Replace = "$USEPROXY(True)"

どうにもうまく動作しないと言うか、
URLがhttpだと動作するのですがhttpsだと動作してくれません。
どこかが間違っているのか、そもそも$USEPROXYはhttpsでは動作しないのか、
どうかご教授よろしくお願いします。

ここまで見た
  • 702
  • 699
  • 2018/09/21(金) 01:50:26.39
すいません自己解決しました。
バイパスリストにhttps全部入れてたのをすっかり忘れてました…。
バイパスリストに例外指定として追記して解決しました。

ここまで見た
  • 703
  •  
  • 2018/10/12(金) 18:29:26.35
よろしくお願いします

とあるページ(hoge.htm)のソースが
1, 2, 3, ...
となっているのに対して
hoge.htm?num=1とアクセスすると
2, 3, ... が残り
hoge.htm?num=2とアクセスすると
3, ... だけが残るようなフィルターを作りたいのですが

Match = "$URL(hoge.htm?num=\1)[#0:\1], "
Replace = ""

上手くいかないです
どう修正すればいいですか
代替のコマンドとかあるのでしょうか

ここまで見た
  • 704
  •  
  • 2018/10/12(金) 20:43:40.33
そこでは変数展開できない

だからそのコードが意図した動作はできないが
ページ内で昇順に並んでるなら
URL = "hoge.htm\?num=\1$SET(num=\1)"
Match = "(^(^$TST(num),))$STOP()|[#0:*],"
こうも書けるだろう

ここまで見た
  • 705
  •  
  • 2018/10/12(金) 20:56:08.71
(^(^...))は文字を消費しないのでマッチしても消えないと思うのですが...
$TSTは気づきませんでした。ありがとうございます。

ここまで見た
  • 706
  •  
  • 2018/10/12(金) 21:05:35.79
あ、一致するとこまで消すのか
直前までだと勘違いして、わざわざ先読みにしてしまった

ここまで見た
  • 707
  •  
  • 2018/10/13(土) 11:31:46.41
701です
教えていただいたフィルターを使ってみたのですが
低頻度ではありますが例えばhoge.htm?num=2に対して2, 3, ...になることがたまに起こります
$STOP()が読まれた瞬間に置換が行われずフィルターが切られるのでしょうか
>>704のように数字を1つ増やして先読みさせると今の所おかしくはならないので修正してみます
ありがとうございます

ここまで見た
  • 708
  •  
  • 2018/11/03(土) 20:09:11.95
Proxomitron でいうところの http://file//path って使用可能なんでしょうか。
私の使い方が誤っているだけなのか、502 Bad Gateway になってしまいます。
bypass リストに local.ptron/(^test/) こんな風に書けば、http://file//path でなくても一応対応できるようですが……。
ただし Proxomitron でしか通用せず、Proxydomo では使えません。

ここまで見た
  • 709
  •  
  • 2018/11/04(日) 00:46:13.02
firefoxを使っていてIEで見ろと警告出す特定のサイトだけUSER-AGENTを偽装したいんだけど、
どのようにすれば良いですか?偽装自体は出来てます

ここまで見た
  • 710
  •  
  • 2018/11/04(日) 00:47:28.24
URLパターン、範囲のマッチのところがいまいちピンとこないです

ここまで見た
  • 711
  •  
  • 2018/11/04(日) 03:21:53.16
>>708
proxydomoじゃfileURLコマンドは使えないな
最近のブラウザじゃfileなんてドメインないぞって怒られるのでそもそも使えなかったりするが
>>709
javascript側のユーザーエージェントも変更しないとダメなんじゃないか?
>>710
ttp://proxomitron.さくら.ne.jp/help/Web_Page_Filter_Editor.html
本家の説明見ても分からないか?

ここまで見た
  • 712
  •  
  • 2018/11/04(日) 04:07:59.16
かいけつしますたありがとう

ここまで見た
  • 713
  • 706
  • 2018/11/04(日) 18:36:13.05
>>711
どうもありがとうございます。
ネットのない環境にサンプルを持ち込んでフィルタを書けるとうれしい状況でして。
Proxomitron で書けるだけ書いて Proxydomo に移植してみます。

ここまで見た
  • 714
  •  
  • 2018/11/05(月) 17:16:18.30
>>713
このスレで言う話じゃないけどUA Controlってアドオン入れて警告出すサイトのみUAをIEのにしとく
って手も

ここまで見た
  • 715
  •  
  • 2018/11/21(水) 15:15:52.77
DLsiteがSSLになってdomo通らなくなった

ここまで見た
  • 716
  •  
  • 2018/11/21(水) 22:16:35.09
おまおれ

ここまで見た
  • 717
  •  
  • 2018/11/22(木) 10:21:02.26
証明書入れてSSLフィルタリングすればいいんでない、と試していたけど通らんな

ここまで見た
  • 718
  •  
  • 2018/11/22(木) 22:24:48.28
サーバーの設定と証明書の設定が噛み合わないんだろうけど
無学な俺にはどうにもできない

ここまで見た
  • 719
  •  
  • 2018/11/24(土) 21:13:51.08
www.kintetsu.co.jp
www.enfold.jp
www.nihonsekkei.co.jp
blog.so-net.ne.jpのブログ記事内画像(*.c.blog.so-net.ne.jp)

とか同じ証書書使ってるところ軒並みダメみたいね

ここまで見た
  • 720
  •  
  • 2018/11/25(日) 12:16:04.60
ublockで充分っすわ。
読み込みはやいのとcpu上がらないのが楽。
オミコとかももうフィルタ書くの面倒。

ここまで見た
  • 721
  •  
  • 2018/11/25(日) 12:56:08.67
なんでここみてんの?

ここまで見た
  • 722
  •  
  • 2018/11/25(日) 13:58:34.49
>>721
オミコのほうが楽かな?って検索してたらここへ来ただけです。すみませんでした。

ここまで見た
  • 723
  •  
  • 2018/11/25(日) 18:46:31.41
だけど、よく調べたらadblock形式通るって凄いかも。なんか久しぶりに熱くなったw
追悼

ここまで見た
  • 724
  •  
  • 2018/11/27(火) 08:22:00.48
adblock形式ってリスト読み込むけど
どんなフィルタになるんですか?サッパリですわ。しかもcpu暴れて昔を思い出しました。

ここまで見た
  • 725
  •  
  • 2018/11/27(火) 13:41:17.73
[HTTP headers]
Key = "URL: touhu"
In = TRUE
Out = FALSE
Version = ""
Author = ""
Comment = ""
Active = TRUE
Multi = FALSE
URL = "$LST(touhu)"
Bounds = ""
Limit = 256
Match = ""
Replace = "\k"

普通のキルリストと同じようにする

ここまで見た
  • 726
  •  
  • 2018/11/27(火) 14:30:33.47
AdListに $LST(touhu) を入れるんじゃいかんのか

ここまで見た
  • 727
  •  
  • 2018/11/27(火) 16:08:50.24
ありがとうございます。なるほど。

ここまで見た
  • 728
  •  
  • 2018/11/27(火) 16:24:58.48
スゲーこっちのほうが安全な気持ちになるw
楽w
ほとんど消えましたわ。
後はJSキルでやれば安心。ありがとう!

ここまで見た
  • 729
  •  
  • 2018/11/27(火) 18:07:11.89
なにがなんだか

ここまで見た
  • 730
  •  
  • 2018/11/29(木) 18:35:42.04
CSSのelement hiding
ってCSS勉強したら
わかりましたわ。お疲れ様でした。

ここまで見た
  • 731
  •  
  • 2018/12/01(土) 11:48:51.13
ublock級に速くならんかな?って
やってみたけど、なかなか難しい。
難しすぎるけどやれることは多いのが魅力ですよね。

ここまで見た
  • 732
  •  
  • 2018/12/02(日) 04:20:47.80
Proxomitronの方が速くね?

ここまで見た
  • 733
  •  
  • 2018/12/02(日) 05:40:07.04
速いかも
フィルタも速くする書き方あるだろうし。

ここまで見た
  • 734
  •  
  • 2018/12/03(月) 02:44:05.42
SSLのページは何もしなくてもいいublockの方が楽だけれども、そうでない場合はProxomitronだな

ここまで見た
  • 735
  •  
  • 2018/12/03(月) 09:26:22.01
proxydomo
期待上げ

ここまで見た
  • 736
  •  
  • 2018/12/05(水) 08:09:00.62
wasmで速くなりそうだけど。
なんか難しそう。

ここまで見た
  • 737
  •  
  • 2018/12/05(水) 19:22:08.06
バイナリ化しちゃうとscript内でのマッチングが出来なそうだが、対策とかあるんだろうか

ここまで見た
  • 738
  •  
  • 2018/12/06(木) 07:08:37.91
リストの更新チェックとかjs使ってできないですか?無理かな。

ここまで見た
  • 739
  •  
  • 2018/12/06(木) 14:39:45.49
バットファイルでできました。

ここまで見た
  • 740
  •  
  • 2018/12/10(月) 00:37:09.28
バットファイル…

ここまで見た
  • 741
  •  
  • 2018/12/10(月) 09:55:12.21
なんだか悪そうなファイルだ

もしかして:バッチファイル

ここまで見た
  • 742
  •  
  • 2018/12/10(月) 17:35:36.31
>>741
はい。誤爆です。

ここまで見た
  • 743
  •  
  • 2018/12/11(火) 00:31:54.48
言い訳が誤爆ってw

フリックゾンビ
フリック回転寿司
ここまで見た

★お気に入り追加

このページを共有する
facebook twitter hatena line google mixi email
おすすめワード