facebook twitter hatena line google mixi email
★お気に入り追加


■ このスレッドは過去ログ倉庫に格納されています

  • 1
  •  
  • 2014/11/20(木) 16:04:08.07
ProxydomoはProxomitronのクローンソフトProximodoを基にして作られたプロクシフィルタリングソフトです

---- 配布・公式サイト ----
amate/Proxydomo
https://github.com/amate/Proxydomo
lafe @ ウィキ - Proxydomo
http://www31.atwiki.jp/lafe/pages/37.html

---- 関連スレ ----
【前スレ】Proxomitron Part 31
http://peace.2ch.net/test/read.cgi/win/1328625684/
Proxomitron フィルター作成スレッド Part15
http://anago.2ch.net/test/read.cgi/software/1383031170/
【Proxomitron】 proximodo 【後継】
http://pc11.2ch.net/test/read.cgi/software/1110563904/

ここまで見た
  • 147
  •  
  • 2015/11/02(月) 10:27:32.45
httpsのフィルタリングがしたくて、
Proxomitronから移行

httpsの方のURL履歴が見たいが為に、https接続に手を出してしまいました
ログインページとかを、うっかりフィルタリングしてしまいそうで、落ち着かない…
でも、便利…

良いソフトをありがとうございます

ここまで見た
  • 148
  •  
  • 2015/11/03(火) 15:43:25.87
\wの挙動がomitronとちがくない?

ここまで見た
  • 149
  •  
  • 2015/11/03(火) 16:20:38.22
もう1個
リスト内で、
#日本語文字列
のようにコメントアウトしてるとそれ以降の行が全て無視される(オミトロンだと平気だった

バグ報告はここでいいのかな

ここまで見た
  • 150
  •  
  • 2015/11/03(火) 16:48:02.11
>>148自己レス
例えばマッチングパターンで
<([^a]\w)\1*
とした時に、
<script src=~~
を置換すると、Omitronの場合は\1で script という文字列を返すがdomoだと s という文字列を返す
一応、<([^a][^ ]+)\1*とすれば同値な代用可能

ここまで見た
  • 151
  •  
  • 2015/11/03(火) 23:12:17.13
>>149事故レス連投すみません
これはリストUTF8じゃないといけなかったって話なのでなんでもないです

ここまで見た
  • 152
  •  
  • 2015/11/05(木) 03:37:01.72
v1.69

ここまで見た
  • 153
  •  
  • 2015/11/05(木) 16:10:51.57
基本的なことなんでしょうが教えて下さい
このフィルタはこのURL『以外』で使いたい、という除外リストはどう書くのがいいんでしょう。
yahoo.co.jpにはフィルタを適用したくない場合、

~yahoo.co.jp/
*/

この書き方だと、yahoo.co.jpは確かにフィルタから除外されますが、
yahoo.co.jp/hogeでは適用されてしまいます。
~yahoo.co.jp/*としても効果がありません。

ここまで見た
  • 154
  •  
  • 2015/11/06(金) 23:22:06.36
$URL使うとか

ここまで見た
  • 155
  •  
  • 2015/11/07(土) 07:01:59.04
>>153
modoは知らないが、omitronではその書き方でも意図どおりに動くはず
リストアイテムは先頭一致だから

書き方はまあ好みなんだけど、俺なら
除外アイテムではなく通常アイテムとしてリストに並べて、 (^$LST(hoge)) と否定形で参照するね
*/で全部引っ掛けてから除外アイテムで弾くってのは少なくともomitronでは非効率だから

ここまで見た
  • 156
  •  
  • 2015/11/07(土) 12:27:17.73
~←これ機能してなくない?
ほんのいくつかの限られたサイトだけSSLフィルタリングしたいんだけどできなくて困ってる

ここまで見た
  • 157
  •  
  • 2015/11/07(土) 12:40:04.34
http://www31.atwiki.jp/lafe/pages/39.html
例外指定は実装されていません

実装してないってよ
限られたサイトならURLパターンに書けばいいんじゃないか

ここまで見た
  • 158
  •  
  • 2015/11/07(土) 19:30:03.34
未実装だったのか ありがと

Bypassリストに
$URL(https://(^$LST(unBypass)))
として解決

ここまで見た
  • 159
  •  
  • 2015/11/09(月) 23:18:39.98
Match: "$LST(list)"

list.txt: "(www.|)proxy.com/"

対象1: "proxydomo.com"
対象2: "www.proxydomo.com"

結果: 1、2共にマッチ

ここまで見た
  • 160
  •  
  • 2015/11/09(月) 23:24:15.51
訂正
対象1: "proxydomo.com/"
対象2: "www.proxydomo.com/"

ここまで見た
  • 161
  •  
  • 2015/11/10(火) 11:04:36.66
Match = "(^a)\0"
Replace = "x"
対象 = "abc"

結果 & \0の中身
Proxomitron = "ax" \0="bc"
Proxydomo = "axbxc" \0=空

ここまで見た
  • 162
  •  
  • 2015/11/10(火) 12:44:47.06
wgetでsslプロキシにProxydomo通すとエラーになる
2種類の暗号化があるけどどっち使ってもダメ
curlはうまくいくかまだ試してないけど
どっちもWindowsの移植版が複数あって一概には言えないけど

ここまで見た
  • 163
  •  
  • 2015/11/10(火) 14:02:51.26
>>161
けっこう挙動が違うのな
omitronからdomoに乗り換えようかと思っていたが迷うな

ここまで見た
  • 164
  •  
  • 2015/11/10(火) 14:24:52.49
ゼロ幅の直後に紛らわしい取り込みは置かないようにしてるから>>161は俺はどうでもいいけど
>>159-160が本当ならえらいことだな

ここまで見た
  • 165
  •  
  • 2015/11/10(火) 14:35:30.53
(www|).proxy.com/
なら問題なかった

ここまで見た
  • 166
  •  
  • 2015/11/10(火) 19:43:06.74
早速修正されたけど私の不具合はそのままかい

ここまで見た
  • 167
  •  
  • 2015/11/10(火) 19:55:42.45
firefoxにてオレオレ証明書食わせてない状態でSSLサイトをバイパスしようとすると
omitronでは証明書エラー出ないでバイパスアクセスできるけど
domoはバイパスリストに書いても本体のバイパス設定にしても証明書エラーが出る

ここまで見た
  • 168
  •  
  • 2015/11/10(火) 19:56:42.27
v1.70
@amate amate released this Nov 10, 2015

・ブロックリストに"(pattern)host.com/"などがあったとき、前方の(pattern)が全体一致ではなく前方一致でもマッチしてしまうバグを修正
・"(^a)\0"は"(^a)(*)\0"扱いにするようにした (proxomitron互換に)


ほんといつも早いね
ありがとうございます

ここまで見た
  • 169
  •  
  • 2015/11/11(水) 09:12:46.15
1.71乙です

そろそろ完全移行できそうになってきたな
あとはリストの例外指定に対応してもらえたら最高に嬉しい

ここまで見た
  • 170
  •  
  • 2015/11/12(木) 00:01:07.64
一部のインターネットラジオが聴けません
e.g. http://radio.nolife-radio.com:8000

新しいリクエストを受信しました
リクエストが完了しました
がものすごい勢いで永久ループ

omitronで見るとresponseヘッダが200 (No Headers)なので、それが原因?

ここまで見た
  • 171
  •  
  • 2015/11/12(木) 03:42:56.89
そういうのってwmpとかで聞くんじゃないの?

ここまで見た
  • 172
  •  
  • 2015/11/13(金) 00:56:29.26
すべてのログが3重に表示されるという謎の現象が起きた

新しいリクエストを受信しました
新しいリクエストを受信しました
新しいリクエストを受信しました
#1 TextMatch [filter]
#1 TextMatch [filter]
#1 TextMatch [filter]
#1 GET
#1 GET
#1 GET

#1 200 OK
#1 200 OK
#1 200 OK

リクエストが完了しました
リクエストが完了しました
リクエストが完了しました

みたいな感じ
3重だけじゃなくて2〜4重で変動してた
再起動したら直って再現性不明

ここまで見た
  • 173
  •  
  • 2015/11/14(土) 12:07:49.88
Match = "$LST(list)"
list.txt = "https+://www.hoge.com/"
対象 = "http://www.hoge.com/"
結果 = マッチなし

"http(s|)://www.hoge.com/" これならマッチする
"http://w+.hoge.com/" これもマッチ

たぶんだけど、リストの各行先頭から7文字以内で+使うとダメっぽい

ここまで見た
  • 174
  •  
  • 2015/11/15(日) 12:34:04.99
1.72
修正乙です

ここまで見た
  • 175
  •  
  • 2015/11/17(火) 11:44:48.03
A. <div></div>
B. <DIV></DIV>

1. <(div)\1></$TST(\1)>
2. <(DIV)\1></$TST(\1)>
→Aにだけマッチ

3. $SET(1=div)<$TST(\1)></$TST(\1)>
→AB共にマッチ

4. $SET(1=DIV)<$TST(\1)></$TST(\1)>
→マッチなし

ここまで見た
  • 176
  •  
  • 2015/11/17(火) 21:41:49.78
修正乙です

ところで、Proxomitronの時は$SETで代入した\n変数は
その検索内では使えない仕様だったと思うけど(>>175の3.4は[No Match]になる)
これができるようになったのは改善ってことでいいのかな?

ここまで見た
  • 177
  •  
  • 2015/11/18(水) 00:19:40.96
v1.73
来てた

ここまで見た
  • 178
  •  
  • 2015/11/18(水) 00:28:49.76
$NEST(<(div|span)\1,</$TST(\1)>)

この検索表現ができるということを初めて知った。複数に分けてたフィルタ、ある程度まとめられそうだ。

ここまで見た
  • 179
  •  
  • 2015/11/18(水) 00:54:28.13
それたしか$INESTにしないと誤爆るんじゃなかったかな

ここまで見た
  • 180
  •  
  • 2015/11/18(水) 09:01:42.71
>>178なら大丈夫でしょ

ここまで見た
  • 181
  •  
  • 2015/11/18(水) 09:46:00.77
大丈夫じゃないだろ
divの中にspanがきたらもうdivの対になる閉じタグを永遠に見つけられない

<div>
<div><span></span></div>
<div></div>
</div>
こんな場合は対にならない閉じタグにマッチしてしまう

ここまで見た
  • 182
  •  
  • 2015/11/18(水) 10:14:25.11
ああそうか\1が上書きされちゃうからダメか

ここまで見た
  • 183
  •  
  • 2015/11/18(水) 11:31:43.64
これバイパスしてても通知領域のアイコン黒くならないんだけど
仕様?

ここまで見た
  • 184
  •  
  • 2015/11/18(水) 12:32:19.69
仕様

ここまで見た
  • 185
  •  
  • 2015/11/18(水) 18:42:23.67
あなた達がProxomitron、ProximodoからProxydomoへ乗り換えた理由は何ですか?

ここまで見た
  • 186
  •  
  • 2015/11/19(木) 10:18:26.30
<div class=

ここまで見た
  • 187
  •  
  • 2015/11/19(木) 10:19:27.89
すみません、とちゅうで切れてしまいました。

<div class="match">
<div></div>
</div>

マッチングパターン:$NEST(<div[^>]++match,</div>)
これだと、1行目のdivから2行目の/divまででマッチしてしまうんですが書き方間違ってます?
1行目と3行目でマッチさせたいんですけど

ここまで見た
  • 188
  •  
  • 2015/11/19(木) 10:35:18.67
$NEST(<div,[^>]++match*,</div>)
こうすべき

ここまで見た
  • 189
  •  
  • 2015/11/19(木) 10:56:07.40
>>188
あぁ、「<div match>」のタグを探していたので、2行目の<div>は無視されてたんですね。
理解しました、感謝。

ここまで見た
  • 190
  •  
  • 2015/11/19(木) 11:17:11.74
$INESTがまさにそういう状況のためにあるものだ
<div match>$INEST(<div,</div>)</div>

ここまで見た
  • 191
  •  
  • 2015/11/21(土) 01:38:46.41
(^(^<div\sclass=$AV(match)))$NEST(<div,</div>)

ここまで見た
  • 192
  •  
  • 2015/11/22(日) 08:09:56.69
要望失礼します
ログのRecent URLをコピーするとき、今はCtrl+Cを使っているのですが、
この作業を簡単にできないでしょうか
(例えば右クリック→コピーとか

複数選択したURLを改行でリストっぽい形式にして一気にクリップボードに登録とかもできたらいいのですが

(目的
画像や動画のURLを抽出してコピー

ご検討よろしくお願いします

ここまで見た
  • 193
  •  
  • 2015/11/22(日) 11:06:32.26
画像や動画のURLを$LOGするフィルタ書く
ログ表示をフィルタイベントだけにする
Ctrl+Aでコピーする
余計な行をなんとかする
解決

ここまで見た
  • 194
  •  
  • 2015/11/22(日) 11:26:46.46
画像や動画のURLを$ADDLSTするフィルタ書くんじゃだめなのか?

ここまで見た
  • 195
  •  
  • 2015/11/22(日) 11:45:25.70
>>192
そのまんま右クリックでURLをクリップボードへコピーできるじゃん

ここまで見た
  • 196
  •  
  • 2015/11/28(土) 00:28:16.09
URLコマンドでhttpsが使えるようになるまで時間かかりますかね

ここまで見た
  • 197
  •  
  • 2015/11/28(土) 00:50:15.09
どういうこと?SSLページでもdbugとか普通にできるけど

それよりも、\xdbug.にリダイレクトしたとき$URLが一致しなくなるのがたまに不便に感じる
URLパターン欄では問題ないというかむしろ*dbug.とか付けると逆にマッチしなくなるのもチグハグだし

ここまで見た
  • 198
  •  
  • 2015/11/28(土) 00:55:02.50
dbugとかbypassとかが使えてもhttpsが使えない
オミトロンではhttps自体がURLコマンドだった

砂時計アラームタイマー
フリックラーニング
ここまで見た

★お気に入り追加

このページを共有する
facebook twitter hatena line google mixi email
おすすめワード