

人工知能(AI)は、運転を手伝ったり、Instagramの料理写真を美しく飾ったり、病気の診断を手伝ったりと、すでに私たちの生活のほとんどに様々な形で影響を与えています。AIは人間とは異なる方法でデータを処理するため、奇妙で一貫性のない言語でAIとコミュニケーションをとると、奇妙な結果が出てくることがあります。最新の奇妙なAI作品群は、入力された単語を視覚的な画像に変換するAttentional Generative Adversarial Network(AGN)から生まれました。
機械学習ツールを開発するクリストバル・バレンズエラ氏は、AIがどのように単語を解析し、その意味を視覚的に伝えるかを示すためにこのサイトを作成した。
この概念は、優れたブログ「AI Weirdness」によって初めて発見されました。同ブログでは、このプロセス全体を「逆ビジュアルチャットボット」と簡潔に表現しています。画像に何が写っているかを伝えるのではなく、ユーザーが伝えた情報から画像を生成しようとするアルゴリズムです。このコンセプトは、昨年発表された論文「AttnGAN: Fine-Grained Text to Image Generation with Attentional Generative Adversarial Networks」の研究に基づいています。
このボットは、学習済みのオブジェクト群から情報を取得します。その結果、画像に簡単に変換できる日常的なオブジェクトについては、はるかに正確な認識が可能になります。漠然とした用語や複雑な概念、あるいは個人的には奇妙なナンセンスな言葉を入力すると、状況ははるかに抽象的になります。
このツールに科学用語をいくつか入力して、何ができるか試してみました。結果は予想通り、少なくともロボット脳ではない私の脳にとっては奇妙なものでした。
ここで独自のフレーズを試すこともできますが、Twitter からのトラフィックが集中しているため、サービスの信頼性が少し低下していることに注意してください。







