初めまして、卒業論文でKHcoderを使わせて頂いています。
全国紙のデータベースからお借りしたテキストを分析するにあたり、
不要な定型文を除外できず困っています。
これまで
2.00f、3a10mの両方を、
大学内と自宅PC(Win7)のCドライブにインストール
しましたが、
いずれも強制抽出・使用しない語が反映されず茶筅・TermExtractの複合語リストに表示されてしまいます。
記事データは11000〜19800KBですが、20KBほどに切り取ったテキストでも同様の結果になります。
kokoro2.txtのチュートリアルでもKの強制抽出ができませんでした。
ドライブ空き容量は20GB以上、メモリも4GB以上あります。
原因や解決策がありましたらよろしくお願いいたします。