更新日:
投稿日:

さて、世の中ではAI開発全盛期という感じで、とにもかくにも全盛期という感じになってきているので、今回は私自身の活用状況について書いていく。

あらかじめ断りを書いておくと、世の中の人ほど活用できてはいない。

今のところは簡単なツール作りや、実装の部品作りといった、小規模用途に利用していて、開発工数の圧縮には便利だと感じている。

開発でLLMを使ってみた事例

仕事ではなく趣味の開発の話。

事例1:MarkdownをYAMLに変換するスクリプトの作成

私は職務経歴書をWordで作っているのだが、WordそのままだとLLMに読ませるのはしんどい。

そこでLLMに読ませる形にしたいが、Markdownはそこまで構造的ではない。なのでYAMLにすることにした。

単刀直入にやるならWordファイルの中身をLLMに渡し、「これをYAMLにしてください」というのが恐らく一般的で、最も手っ取り早いだろう。

しかし私はそれを避けた。私の経歴書はかなり長く、LLMがどこかでミスをしていた場合、それをレビューするのは至難の業だからだ。例えば経歴の一部がLLMによって書き換えられていたりするリスクは拭えない。

なので私はLLMにWordファイルから切り出したプレーンテキストをYAMLに変換するスクリプトを書くことを依頼した。これであればレビューするのはコードそのもので良いし、静的コードは基本的に文脈を見て判断して勝手に書き換えることはしないし、仮にそんな処理があったとしてもそんなものはコードを見ればわかるからだ。

作らせたのはSESや受託系の経歴書にありがちな、死ぬほど繰り返される案件ごとの経験セクションだ。職務経歴書の中でも職務要約だとか、活かせる経験みたいな単純な文章セクションは手作業でどうにもなるので、そこは手で移植すればいいが、繰り返しはしんどい。

というわけで次のようなものを書いてもらった。これで9割はうまく変換してくれたし、後はざっと目検して行って変換にしくじっている部分を直して対応した。

要はLLMに変換させるのではなく、LLMに変換ツールを作らせると間違いが少ないという話だ。

#!/usr/bin/env perl
use strict;
use warnings;
use utf8;
binmode(STDIN, ':utf8');
binmode(STDOUT, ':utf8');

my $input = do { local $/; <STDIN> };

# 複数のプロジェクトを分割(日付パターンで分割)
my @projects = split(/(?=\d{4}\/\d{2}\s*-\s*\d{4}\/\d{2})/, $input);

print "projects:\n";

for my $project (@projects) {
    next if $project =~ /^\s*$/;

    parse_project($project);
}

sub parse_project {
    my ($text) = @_;

    # 時期を抽出
    my ($period) = $text =~ /^(\d{4}\/\d{2}\s*-\s*\d{4}\/\d{2})/m;
    return unless $period;

    # タイトル(時期の後の行)
    my ($title) = $text =~ /^\d{4}\/\d{2}\s*-\s*\d{4}\/\d{2}\s*\n(.+?)(?:\t|規模|$)/m;
    $title //= '';
    $title =~ s/^\s+|\s+$//g;

    # 要員数
    my ($members) = $text =~ /要員数\s*\t?\s*(\d+名)/;
    $members //= '';

    # 役割
    my ($role) = $text =~ /役割\s*\t?\s*([^\t\n]+)/;
    $role //= '';
    $role =~ s/^\s+|\s+$//g;

    # プロジェクト概要
    my ($overview) = $text =~ /【プロジェクト概要】\s*\n(.*?)(?=\n\s*\n|\n【|$)/s;
    $overview //= '';
    $overview =~ s/^\s+|\s+$//g;
    $overview =~ s/\n\s*/\n/g;

    # 主な業務
    my ($tasks) = $text =~ /【主な業務】\s*\n(.*?)(?=\n\s*\n|\n【|$)/s;
    $tasks //= '';
    $tasks =~ s/^\s+|\s+$//g;

    # 実績・取り組み
    my ($achievements_text) = $text =~ /【実績・取り組み】\s*\n(.*?)(?=\t要員数|\n開発環境|$)/s;
    $achievements_text //= '';

    # 開発環境セクションを抽出
    my ($dev_env_text) = $text =~ /開発環境\s*\n(.*?)$/s;
    $dev_env_text //= '';

    # 出力
    print "      - 時期: $period\n";
    print "        内容: $title\n";
    print "        要員数: $members\n";
    print "        役割: $role\n";

    # プロジェクト概要
    print "        プロジェクト概要: |-\n";
    for my $line (split /\n/, $overview) {
        print "          $line\n" if $line =~ /\S/;
    }

    # 主な業務
    print "        主な業務:\n";
    print "          - $tasks\n";

    # 実績・取り組み
    print "        実績・取り組み:\n";
    parse_achievements($achievements_text);

    # 開発環境
    print "        開発環境:\n";
    parse_dev_env($dev_env_text);
}

sub parse_achievements {
    my ($text) = @_;

    # 実績項目をパース(タイトル + 説明の形式)
    my @items;
    my $current_title = '';
    my $current_desc = '';

    for my $line (split /\n/, $text) {
        $line =~ s/^\s+|\s+$//g;
        next if $line eq '';

        # 新しい項目タイトル(短い行で次の行に説明がある)
        if ($line =~ /^(.+?)$/ && length($line) < 30 && $line !~ /。$/) {
            if ($current_title) {
                push @items, { title => $current_title, desc => $current_desc };
            }
            $current_title = $line;
            $current_desc = '';
        } else {
            $current_desc .= ($current_desc ? "\n" : '') . $line;
        }
    }

    if ($current_title) {
        push @items, { title => $current_title, desc => $current_desc };
    }

    for my $item (@items) {
        print "          - $item->{title}: |-\n";
        for my $desc_line (split /\n/, $item->{desc}) {
            print "              $desc_line\n" if $desc_line =~ /\S/;
        }
    }
}

sub parse_dev_env {
    my ($text) = @_;

    my %sections;
    my $current_section = '';

    for my $line (split /\n/, $text) {
        $line =~ s/^\s+|\s+$//g;
        next if $line eq '';

        if ($line =~ /^【(.+?)】$/) {
            $current_section = $1;
            $sections{$current_section} = [];
        } elsif ($current_section) {
            # カンマやスペースで分割し、バージョン番号を除去
            my @items = split /,\s*/, $line;
            for my $item (@items) {
                $item =~ s/^\s+|\s+$//g;
                # バージョン番号を除去(数字とドットのパターン)
                $item =~ s/\s*[\d.]+\s*$//;
                $item =~ s/\s+\d+(\.\d+)*$//;
                push @{$sections{$current_section}}, $item if $item =~ /\S/;
            }
        }
    }

    # 順序を維持して出力
    my @section_order = ('言語・FW', 'インフラ', 'ドキュメント', 'CI/CD', 'VCS');

    for my $section (@section_order) {
        next unless exists $sections{$section};
        print "          $section:\n";
        for my $item (@{$sections{$section}}) {
            print "            - $item\n";
        }
    }

    # 定義順以外のセクションも出力
    for my $section (keys %sections) {
        next if grep { $_ eq $section } @section_order;
        print "          $section:\n";
        for my $item (@{$sections{$section}}) {
            print "            - $item\n";
        }
    }
}

入力に使ったワードファイルのフォーマットは以下のような内容だ。

[企業情報A]
[案件情報1]
[案件情報2]
...
[企業情報B]
[案件情報1]
[案件情報2]
...

ツールの想定漏れにより一部手修正しているが、低いレビューコストと最低限の手作業で完遂でき、LLMに読ませて分析させられる経歴書を作れたので、結果としてこれはよかった。

事例2:adiaryのMarkdownパーサーへの脚注記法の追加

これは重い腰を上げてadiaryのMarkdownパーサーを脚注記法に対応させたでも書いた内容だ。

端的に言うと既存コードを読ませて部品程度の機能を書いてもらった。

そのまま愚直に書いてもうまく動かなったので、結合する部位などは適当に手直ししているが、これもLLMを使ったコーディングが役に立った一例だ。

ローカルLLMの利用状況

現状ではベンチマークを取るくらいしか出来ていないが、試したことを書き留めておく。

Ollamaからllama.cppに乗り換えようとして失敗した話

Ollamaよりllama.cppの方がCPUオフロードなどのチューニングができるので20〜100%程度のパフォーマンス向上が望めるみたいな情報も見かけたが、GitHubのCUDA対応バイナリを単に叩くだけではパフォーマンスが著しく劣化し、Reasoningの影響で、ただでさえ遅いのが余計に遅くなるなど、全く使い物にならなかった。

調べたところ-nglオプションでGPUオフロードを指定したり、--reasoning-budget 0を付加することでReasoningを防げるらしいがReasoningを防げるかどうかはモデルに依存するらしく上手く行かなかったし、-nglオプションも適切な値が謎だったので諦めた(コンテキストトークン長で変わるらしいが計算ツールがWindowsだとハングしたので調べられなかった)

llama.cppは元々mac用に開発されていてCPUオフロードが標準らしいのでWindowsで使うのは結構大変なのかもしれない。

Ollamaの動きを観察していた感じ、なんかいい感じにCPUオフロードとGPUオフロードを按分してくれてるように見えたので、Ollamaでも別に構わない気はした。

それとCPUに全部オフロードしても実用性は薄いが、それなりの速度で生成してくれるのが分かったのは収穫だった。

もし過去にこれを知っていればメモリ高騰前に128GBにしておきたかったと後悔した。何せ去年の8月に5万だったDDR5の32GBメモリ二枚組が、今や22万と、四倍以上も値上がりしていて、もはや手の出しようがない。

ああ、去年DDR4からDDR5に上げるときに64GBを維持せず、いつものように意味もなくメモリを盛っていれば…。

ローカルLLMの活用方法が見えない

たぶんLLMをチューニングする知識がないとどうにもならなさそう。RAGとかMCPとかLoraを自作できれば夢があるのかも?

30b程度のモテルだとClaude Opus 4.5の足元にも及ばないので、多分何かに特化させないと使いみちはないと思う。

PoeでGLM-7を試した感じ体感そこそこ使える気がしたので120b辺りなら実用性が期待できそうだが、これをまともに動かすにはNVIDIA RTX PRO 6000 Blackwellが必要らしく、こいつは140万円もするし、GMKtec EVO-X2 GMKtec EVO-X2でも実用速度で動くらしいが、LLM以外に使いみちのない端末のために貴重な電源と部屋のスペースを取られるのも困りものなので乗り気にはなれない。

まとめ

現状そこまでバチバチに使えているかといわれると、そこまで使えていないのが正直なところだとは思う。

例えばサブエージェントやスキルといったものや、MCP、RAG、ファインチューニング、Loraといったものは活用できていない。

まぁ徐々に使えるようになっていければいいのかなぁというところで、程々にやっていきたい。

ローカルLLMはまたなんかいい感じの情報が出たら試したい。Poeの利用料金もタダではないので…。

投稿日:

Xubuntu環境のノートPCからSSH経由でネットワークストレージを繋ぐときに調べたログ。

確認環境

Env Ver
OS Ubuntu 24.04.3. LTS
Thunar 4.18.8
gvfs 1.54.4
sshfs 3.7.3

前提条件

  • パスフレーズ付き公開鍵認証を使ったSSH接続を行う
  • ~/.ssh/configssh ホストで接続可能な設定があり、実際に接続できる
    • 設定ファイルの一例
      Host hoge
          HostName hoge.example.com
          User piyo
          IdentityFile hoge.example.sec
          Port 12345
      

やり方

  1. gvfs[1]とsshfs[2]を入れる
    sudo apt install -y gvfs sshfs
    
  2. Thurarのアドレスバーにsftp://<ここにsshホスト>を入れると繋がる
    • 例:ホスト名がhogeであれば:sftp://hoge
  3. パスフレーズを聞かれるので入力する
  4. 今後もアクセスする予定があるならブックマークに入れておくと便利

  1. URIスキーマを扱えるようにするためのやつらしい
  2. SSHをファイルシステムとしてマウントできるようにできるやつ。Windowsでやるときにも同じやつ使うと思う
投稿日:

既存CGIを一切触らずに、前段にアクセス制御やアクセスロガーをつけたいとかの用途でラッパーCGIを使うと上手くいくので、その方法を書く。

なお前段が動くことしか試していないが、備考に後段で処理をさせる方法についても軽く触れている。

動作機序

CGIはコマンドライン引数、環境変数、標準入力を受け取り、何かを処理した結果を標準出力するプログラムである。

つまりラッパーCGIはコマンドライン引数、環境変数、標準入力を受け取り、それをラッピングするCGIにそのまま受け渡し、このCGIの標準出力をリダイレクトできればよい。

やり方

以下のようなコードを書き、exec()前に前段の処理を書けばよい。

#!/usr/bin/perl
use strict;
use warnings;

#
# ここに実行前に挟みたい処理
#

my $original_cgi = './hoge.cgi';
exec($original_cgi) or die "Cannot exec $original_cgi: $!";

今回実際に作ったサンプル

adiaryにはアクセス制限をする機能がなく、本体を弄るのが嫌だったので前段に処理を入れることで実現した。

#!/usr/bin/perl
use strict;
use warnings;

# 以下のコマンドでIP::Geolocation::MMDBをインストールしていることが前提
# cpanm -l extlib IP::Geolocation::MMDB
use lib './extlib/lib/perl5';
use IP::Geolocation::MMDB;
# https://download.db-ip.com/free/dbip-city-lite-YYYY-MM.mmdb.gz
# ex. https://download.db-ip.com/free/dbip-city-lite-2026-01.mmdb.gz
my $db = IP::Geolocation::MMDB->new(file => './DBIP-City.mmdb');
my $country_code = $db->getcc($ENV{REMOTE_ADDR});

# 日台韓は許可する方針(怪しい挙動を見たことがないため)
my @allow_country_codes = ('JP', 'TW', 'KR');

my $user_agent = $ENV{HTTP_USER_AGENT};

# 許可する国コードかチェック
my $is_allowed_country = grep { $_ eq $country_code } @allow_country_codes;

# 許可するBOTのUAパターン
my @allowed_bot_patterns = (
    qr/bot/i,
    qr/curl/i,
    qr/wget/i,
    qr/google/i,
    qr/bing/i,
    qr/mastodon/i,
    qr/misskey/i,
    qr/pleroma/i,
    qr/akkoma/i,
    qr/lemmy/i,
    qr/activitypub/i,
    qr/hatena/i,
    qr/github/i,
    qr/tumblr/i,
    qr/meta/i
);

# 許可するBOTかチェック
my $is_allowed_bot = 0;
for my $pattern (@allowed_bot_patterns) {
    if ($user_agent =~ $pattern) {
        $is_allowed_bot = 1;
        last;
    }
}

# 許可国でもなく、許可BOTでもなければエラーにする
if (!$is_allowed_country && !$is_allowed_bot) {
    # 未知のSNS BOTを将来的に許可するために、BOTくさいUAのログを集めておく
    if ($user_agent !~ /Windows|Mac OS|Linux|Android|iOS|iPhone|iPad/i) {
        # OGP取得BOTに間違いなく含まれない文字列が入ってるものはログに入れない
        my $deny_ua_log_file = './deny_ua.log';
        if (open my $fh, '>>', $deny_ua_log_file) {
           my $time = localtime();
           my $remote = $ENV{REMOTE_ADDR} // 'unknown';
           my $uri = $ENV{REQUEST_URI} // 'unknown';
           print $fh "[$time]\t\"$user_agent\"\t$country_code\t$remote\t$uri\n";
           close $fh;
        }
    }

    print "Status: 403 Forbidden\n";
    print "Content-Type: text/plain; charset=UTF-8\n\n";
    print "Access denied.\n";
    exit;
}

# adiary呼び出し
my $original_cgi = './adiary.cgi';
exec($original_cgi) or die "Cannot exec $original_cgi: $!";

備考

perldocを読んだ感じ、互換性に問題が出る可能性も少なからずあるようだ。

perldocのexec関数の説明を見る感じ、ENDブロックや、オブジェクトのDESTROYメソッドを起動しないとあるので、実装方法次第では正しく動かない可能性もあるのかもしれない。

また「戻って欲しい場合には、execではなく system関数を使ってください」とあるため、もし後処理をしたい場合はexec関数でなくsystem関数を使うとよいと思う。

あとがき

レンタルサーバーではWAFが自由に使えないため、なんちゃってWAFの様なものを作りたいとか、レンタルサーバーを新規に始めたく、CGIにバナー広告を差し込みたいといったケースがある場合に、今回のような手法は便利だろう。

今時、往年のレンタルサーバーを新規に始め、それもバナー広告を出したいと考える人物がいるかどうかは謎だが、共通的に何かを差し込みたいなど、何かしら活用方法はあるかもしれない。

ググって出てきた記事が軒並み古くて役に立たなかったので、令和八年最新版として書いておく。

やり方

  1. CPANMのインストール
    curl -L https://cpanmin.us | perl - App::cpanminus
    
  2. CPANMのパスを.cshrcに書く
    私はZSHを使っているため.zshrcに書いているが、デフォルト環境はcshのはずなので.cshrcに書けば成り立つと思う。
    echo PATH=${HOME}/perl5/bin:${PATH}
    
  3. local::libをインストールする
    local::libはroot以外にあるCPANモジュールを使うためのものらしい。これを自分のホームディレクトリ配下に入れるようにコマンドを流す。
    cpanm --local-lib=~/perl5 local::lib && eval $(perl -I ~/perl5/lib/perl5/ -Mlocal::lib)
    

使い方

以下のようなコマンドを流すとパスを指定してCPANモジュールを取得・展開できる。

# 書式
cpanm -l <パス> <モジュール名>

例えば以下を流すとpwd配下にextlibディレクトリが生成され、IP::Geolocation::MMDBがダウンロードされて展開される。勿論、依存関係も勝手に解決してくれる。

cpanm -l extlib IP::Geolocation::MMDB

モジュールを利用するときはライブラリの配置されているルートを指定し、次にモジュール名を指定するとうまくいくようだ。

use lib './extlib/lib/perl5';
use IP::Geolocation::MMDB;

あとがき

https://cpanmin.us/を見に行くと以下の記述があり、辿ってみると日本の人が作っていてちょっと驚いた。

# This is a pre-compiled source code for the cpanm (cpanminus) program.
# For more details about how to install cpanm, go to the following URL:
#
# https://github.com/miyagawa/cpanminus

先日2026年のBluesky予測という記事が発表され、とても素晴らしい理念だと思ったので感想をつづってみる。

SNS疲れについては過去にもネット疲れの一つのような感じで軽く触れたが、昨今SNSに疲れを感じている人は少なくないと思う。本記事では、Blueskyが提唱する『インターネットを再び良くする』という理念への個人的な感銘を書いていく。

情報の掃きだめの打破

現在のSNSは憂鬱で、攻撃的で、人間味のない「情報の掃き溜め」になってしまい、Instagramではフォローしている投稿がほとんど表示されなくなり、Xでは非同意ポルノが氾濫している。オンラインコミュニティは延々とスクロールし続けて可処分時間を溶かす装置となった。

これらの実装は全て人間がやってきたことだから、つまり同じ人間により覆すことができるという考えをBlueskyは持っているようだ。

Blueskyでは似た分野の投稿を集める機能を開発する予定があるそうで、これによって見知らぬ人たちと一緒にライブ体験を共有し、瞬時に友人になったかのような感覚を味わうことができると言っている。

きっとこれは、かつてMMORPGにあった祭りのようなものだろう。その場の熱気で見知らぬ人が集まり、思い思いに熱狂する、そういった事ができるのだろう。

つまりBlueskyは玉石混交で様々な情報がごちゃごちゃになった場所、自分がその時に見たい情報やフォロイーの動静といった、自分が求める情報だけが整然と並ぶ場所を目指しているのだろう。

南アフリカにはポンテタワー[1]と呼ばれるビルがある。ポンテタワーは中央の吹き抜けに数階分のゴミが堆積した高層ビルだ。今のSNSはまさにそういった状態で、Blueskyとしてはそういった状況を打破したい、この現状はよくないと思っているというわけだ。

これはある意味でXのおすすめタブのような新しい出会いに出会う機会は減るが、逆に言えば常に新規性のある情報に触れ続け、それを浪費し、三日前に見たもののことなど既に覚えてすらいないような状況より、遥かに健全だ。

インターネット上の小さな奇跡との出会い

Blueskyでは「ウェブ上で見つけたり自分で作った素晴らしいものを共有するための場所」を目指したいと考えているそうで、それは「『これはすごい!』と感動できるような、デジタルの小さな奇跡に出会う場所」だそうだ。

これが何かというと、恐らく個人の創作や、簡単なプログラム開発といった趣味の成果物の話だと私は考えている。

つまりバズることを目的に、世間を煽る創作をしたり、コンビニの冷蔵庫に入ったりすることではないということだ。みんな芸人をやめて普通に振舞おうということかもしれない。

Xではきわどいネタを無限に投稿しバズっている人がいるが、あの人たちが本心でやっているかというと、個人的には懐疑的だ。広告塔になり、自分の製品が売れるからとか、単に目立って承認欲求が満たされるからしている可能性は十分にあるだろう。

私は千人、一万人にリーチするより、ごく限られた数名にリーチする方が価値があると思う。これは人口に膾炙してしまうと聞きたくない意見が聞こえてきたり、そもそも全部を全部見るのが不可能になるからだ。

「あなたの記事で助かりました」「あなたのイラストのここが好きです」と数回言われる分には把握できるし、もしその人がずっと見ていてくれれば、友達や仲間になれるかもしれない。しかし数が多いとどうだろう?もはや個人を意識することはないだろう。数字が伸びたから満足みたいなところに行きつくと思う。

勿論、商業ならそれでいいだろう。企業や個人事業主、大手同人サークルで売れれば売れるほどいいならそれでいい。でも趣味ならどうか?むしろひっそりやりたくないか?というのは思う。

主役はSNSではなく、その先にあるものである

ソーシャルプラットフォームが自らを「ワールドワイドウェブの主役」だと思い込み始めた時から、インターネットはおかしくなり始めました。

そう思い込んでいるのかどうかはわかりかねるが、これも非常に共感できた部分だ。

例えばイラストレーターはpixivに絵を上げ、一般人は日々の体験をTwitterに書き、動画はYoutubeやInstagramにアップする。つまり以前はWebサイトで発信していた事柄が創作も発信もSNS上で完結するようになった。

それに情報を探すときですらSNSが使われるようになっている。例えば2022年3月2日の日経にあるアメリカでは検索ワードにRedditをつける話や、2016年2月19日の日本の若者はGoogleを使わずにTwitterで検索をするという話も出ていることから、SNSは徐々にワールドワイドウェブの主役として、のし上がってきたことがうかがえる。

しかしプラットフォームでは大半の人は見るだけで、投稿者は再生数や売り上げを競うゲームになっている。その為に対立が煽られ炎上したりもするし、フォローしてもフォローしたコンテンツでないものが流れてきたり、コンテンツを見ていて気が付いたら全く違う場所にいたりする。

果たしてこんなものが主役であっていいのかという思いがある。勿論、古い人間の考え、老害の言うことだという意見もあるだろう。実際にそうだと思うし、だからこそ私はBlueskyの言うことに共感しているのだと思う。

私はSNSを無限にスクロールしコンテンツを浪費することよりは、たまにフィードに流れてきた興味深いリンクをクリックして、小さな奇跡を見つける方がより価値があると思う。

それはSNSで見つかる小さな奇跡と何が違うのかと言われれば、それを上手く説明することはできない。しかし、インターネット老人としてはそう思うのだ。

Blueskyで見つけたものに刺激を受け、Blueskyでの活動が減る

穏やかで、非消費的な世界では小さな奇跡を見つけ、それに刺激を受け、何かに取り組むことも増えるかもしれない。

そういった中ではSNSの滞在時間は減る。別の取り組みが始まるのだ。すると、人はきっとSNSで受けた刺激をもとに何か生産的な活動を行い、それをSNSに投稿する再生産を行うようになるだろう。

すると、SNSは穏やかになるかもしれない。何故なら活動中はSNSを利用していないからだ。

結果としてSNSは脇役となり、メインのアクティビティは別のものになるだろう。SNSに誘導され、SNSの利益になる活動ではなく、自身の利益になる、より有益な活動が生まれるはずだ。

Blueskyは次のように、ユーザーをSNSに閉じ込める罠をなくし、可処分時間を自分が意図したことに有効活用できるようになるということを述べている。これは実に素晴らしい考えだと思う。人間は他人に操作され、あたかも自分が思っていると勘違いした状態で行動すべきではないのだ。

ユーザーを罠にかけて閉じ込めるように設計されたプラットフォームから離れ、「インターネットは生活を消費するために構築されるべきではない」とはっきり言えるような空間へと人々が移動するにつれ、ダラダラとしたスクロールは減り、より意図的な利用が増えると予測しています。

あとがき

内容には感動したが、反面どこで儲けるのかが気になった。自鯖勢は自分で運用コストを負担しているので別として、一般の人々は本体側に行くだろうからね。

まぁそこはさておきとして、元記事中にある次の文章はとても美しい文章だと思った。

しかし、もし人間の選択によってインターネットが悪くなったのであれば、人間が別の何かを選択することで、インターネットを再び良くすることができるはずです。
インターネットを形作ってきたのは人間です。
そして、人々はそれをより良くすることができるはずです。

また次の文章も非常に気が利いていて面白い。

このために、皆様から絶えずご要望をいただいている下書き機能を追加します。

どうしてそんなに時間がかかったの?という質問に対しては、まだ気の利いた答えを用意している最中ですが、準備ができしだい公開予定です。


  1. 南アフリカの都市である、ヨハネスブルグで最も治安が悪いといわれるヒルブロウ地区にあるタワーマンション。かつては中央の吹き抜けに地上五階までゴミが溜まっていたといわれている。以前は入って五秒で殺されるなど、非常に治安が悪いことで知られていたが、近年では観光ツアーが組まれるほどに改善している。