弊社は自動車会社なので交代二勤で乗り切るみたいです

2020年4月 某日タイトルの通りです。正直びっくりしました。本日の午後より緊急的にアナウンスされて、コロナ対策の一環として朝勤と昼勤の交代二勤制になるそうです。なので、私は来週から朝7時に出社・・・。よいことなのか悪いことなのかわかりかねますねこれは・・・。さて、昨日も予告したとおり、Dockerコンテナを使用してHugoの記事を書くことを目的に今日も頑張って行こうと思います。今回はまず、SlideshareでDockerfileについて良い書き方がないかなあと探すところから始めました。 すると数分後、こちらのスライドがとても良くて、印刷したくなっちゃいました。 そこで、この際だったのでSlideshareの新規アカウント登録をして、スライドをDownLoadしておきました。”(OO)/” 次に、どうにかしてDockerコンテナ内でGeditできないかなあ・・・なんて意★味★不★明なことを思っていたら、なんとこちらのページでDockerコンテナで画面表示ができるという美味しすぎる話を見つけてしまったので早速使用・・・と思ったら、なんか自分のubuntuの環境ではdocker-composeでバグるんですよね。そこで、早速アップデートしてみました とりあえず、これで更新はできたので、いざもう一度!・・・使用できないコマンドとかがあって、そのままでは使えなさそうですね・・・。 しかも、ここでTeraTermとか色々調べてみたら、やりたいことはWindowsからLinuxをリモートしたいってことじゃないですか! 微妙に違うのでここで絶望・・・と思いきや!よくよく読んでみたらAnacondaも入れているじゃないですか。しかもjupyterも。ってことはこの方法ならばGUI可能ってことだ(自分の最初の記事をすっかり忘れていた)ということなので、今から頑張って見ようと思います。それでは読んでくださってありがとうございました!

sudo docker images -aq | sudo xargs docker rmi -f

こんにちは。dockerイメージの全消しを行ったRockinWoolです。今日は最近のコロナワールドを鑑みて、定時ダッシュに挑戦したら無事に成功したので ようやくゆっくり色々やり始めようと思っている次第であります。 ということで、恒例?となった実況しながらのブログ投稿になります。今日のテーマは「DockerでHugoの環境を作ってGithubpagesに投稿しよう!」って感じです。それではぼちぼち進めて行きます。 まず最初に、今回のやりたいことを公開するためのrepositoryを自分のGithubに作成しました。ライセンスはよくわからないのでとりあえずGPLv2.0にしてあります。こうして空のリポジトリを作成した後に、そのリポジトリをローカルにクローンしました。\ こんな感じのコマンドです。ここで、コマンド文をマークダウンで挿入する際にVSCodeに怒られてしまいました。どうやら前後に改行を入れないと怒ってくるそうです。そして、昨日の投稿の裏でコッソリやっていたDockerfileを移動して起動・・のつもりが凄いゴミイメージとゴミコンテナがあったので掃除することに。これで冒頭の全消しコマンドが発動することになったというわけです。 とりあえずこれでイメージもコンテナも全部消去することができました。次にこのDockerfileを読み込んで起動して停止するのを自動化するプログラムも書いてみました。しかし、これが仇となりました。とりあえず完成品は以下に記載しますが、いかんせんif文の書き方にいじめられすぎて時間がなくなってしまったのでTipsはまた次回書きますここまで読んでくださってありがとうございました!参考URL

Twitterランドの情報を入手して遊ぶ1

こんにちは。RockinWoolです。前回の記事で挑戦したように、今日はTwitterの情報を入手して遊ぶプログラムを作っていこうと思います。ただし、今回のプログラムは個人情報の多いものとなっているのですべてを公開することは難しいです。ご了承ください。さて、前回はおそらくTwitterAPIのアカウント登録をして4つの鍵を手に入れたところで終わっているのだと思います。ということで、これからそれをプログラムに読ませて活用していこうと思います。 まず、前回pandasを使用してデータを保存すると言ったがあれは嘘だ。pandasを使用するとdive_search関数(この記事の作者が名付けたものかな?)の再起処理の部分で引っかかってしまいうまく行かない。そこで多少重くなるがpythonのcsvライブラリを使って処理中にcsvファイルに書き込んでもらう形に変更した。具体的にメイン部分は次のようにまとめられる\ もともとがかなり整ったプログラムなので実質的には前に二行足しただけである。こんな書き方は良くないとかあったらぜひ指導してください。とりあえず解説すると、dive_serch関数は再起関数で引数に指定した人のフォロワーのリストと深さdを持っています。最初の実行で起点となる友人のリストが用意されて、その処理の途中で友人のリストの上から順に再び友人のリストが用意されて・・・というものの繰り返しで深さ分のフォロワー情報を入手することができます。弱点はtwitterAPIが15リクエスト/15分という制約をかけているということです。したがって今日は作成したプログラムを回しながら帰宅することにしようと思います。明日はさっきの記事の後半部分。自分の専門分野であるネットワークについて実践していこうと思います。今日の記事で作成したプログラムは↓にあげておきます。コメントいただけると嬉しいです(ほとんど丸パクリだけど)それではここまで読んでくださってありがとうございました

Twitterと連携してみた&一時間でTwitterのPythonScriptを実装してみる

2020年3月 某日皆さんこんにちは。RockinWoolです。早速ですがこのブログのTwitter連携をしていなかったなあと業務中に思いついたので、早速ですがここで実況しながらやっていこうと思います。ちなみに現在のこのブログの環境はVisual Studio Code + Hugo + Githubpagesという感じです。(脚注: 現在はWordPressで作ってますが、当時はGithubpagesでやってました。)OSはUbuntuとWindowsどちらからでも作成しています。そのとき使える方でやるって感じです。 それでは早速ですがやって行こうと思います。まず自分のTwitterのアカウントは以下のやつになります(うまく貼れているかな?)Twitter : RockinWoolそんで、これをconfi.tomlに追記することによってここからボタン一つでアクセスできるようにしようと思います。※ちなみにここで自分の過去のツイートを確認して犯罪者臭いこと言っていないかチェックした。鍵垢ですみません。 それからついでにGitHubのアカウントも公開しておこうかなと思います。GitHub : RockinWool※これもプライベートリポジトリとかを確認して事故のないようにした。このときサブのGitHubのアカウントの方に大体の機能を移した ということで無事に設定も終了したので、ここからはtwitterからデータを取って来るほうの話を始めようと思います。今回気になっていたのはQiitaのこの記事です。とりあえずあまり読んでないのですが進めていこうと思います。 さて、15分ほど読んだところで早速引っかかったのはimport configの部分。configというライブラリがどっかにあるのかしら?と純粋な気持ちで検索をかけても見つからず、色々読んだ結果別ファイルから設定を読んでいるだけということが判明した。それと同時にTwitterの情報を入手するにはTwitter APIとの登録・連携が必要ということを知りました。ということでいざTwitterAPIのサイトへ!と思って行ったらすでにアカウントが作成済みだった・・。どうやら学生のときにもチャレンジしたことがあったみたいです。しかし、これにくじけずに必要な鍵を4つ手に入れることができました。この鍵を知られると簡単に乗っ取られてしまうそうなので皆さん厳重に保管しましょう つぎにとりあえずさっきのQiitaのページのプログラムをほぼペーストして実行すると早速エラーが出ました。内容はpythonやっている人には日常茶飯事のライブラリが無いよってやつです。とりあえず以下を実行\ さらにmongodb関連のライブラリは解説が少なかったのもあって断念し、よく慣れ親しんだpandasを使用してデータを保存していくことに変更。おそらくそこまで深く掘らなければデータ数もそこまで莫大にはならないと思うのでこれで良いのかな・・と思います。ここで一度実行してみると、なんとか動きました!今晩はここで一度家に帰って、明日結果の確認を行ってネットワーク化と解説をしていこうと思います。ここまで見てくださってありがとうございました!

Dockerで遊ぶ

2020年3月某日 お久しぶりです。最近仕事ばかりで全然研究していないRockinWoolです。4月からは社会人博士として学費を支払う必要があるので、もっと真面目に論文を読んだり書いたり研究をしたりしないといけないとは思っています(笑) 今日はこの記事を書きながらDockerイメージを作って、自分の作ったプログラムを実行する環境を配布できるようにしようかなって思います。手順はこんな感じかな〜(多分) それではまず、作業環境を作ります この中にpythonで作ったプログラムをぶち込みます 次にdockerfileでanaconda環境を設定していきます自分はgeditを愛用している(Vim<nano<gedit)のでgeditを使います。WindowsだったらVisual Studio Codeで書いちゃいます(ここで自分が仕事のせいで完全にWindows派からLinux派に堕ちてしまっていることに気づく) Dockerfileの記述はQiitaのこの記事を参考にして作りました(マークダウンで初のURLリンク)っつーことでいざ実行! 正直ワロタwこの環境にはDocker入れてませんでしたね・・・提示された解決策を実行して(apt-getではなくsnap使ったのですがログがほとんど残らないのに衝撃を受けつつ) とりあえず、dockerが入ったのはわかったのでリベンジ へー。sudo入れないとこんなエラーが出るんですね!(無知)とりあえずsudoを入れてもう一回実行します。するとSuccessfully tagged 20200320:latestと表示されたので多分イメージは完成しましたね。それではdocker run します えええ?runさせた直後なのに止まっているとはどういうことじゃ?考えられるのはDockerfileの記述内容だけですねえ..と思っていたのだけど、10分後にこれはRUNのさせ方の問題じゃな・・となって修正 とりあえずサーバーが立ち上がったそうなのでもう一個ctrl+alt+tで端末を召喚して\ とでもしてアクセスすると….・・・いやあ、科学の力ってすげーですわ・・・ とりあえず目標としていたDockerで遊ぶ!ということを達成したので今日は満足かな・・・。マークダウンの表記方法にも色々慣れてきたと思うし、これを投稿してどうなるか見てみたいですね!それでは、長くなりましたがここまで見ていただきありがとうございました。今回作成したプログラムやファイルの置き場所はここに置きました。次は月曜日かな?論文のレビューでもしようと思います!

新社会人もそろそろ終わる

2020/03 某日 10日ぶりの投稿になってしまいました。悲しいです。今日はマークダウンの練習も兼ねて近況報告でもしていこうと思います。 あと二週間で怒涛の社会人一年目が終わってしまいます。今年は非常に密度が濃かった半面、自分自身がほとんど成長できなかった印象があってとても苦しんでいます。多分もともと社会人に向いていないのに、突然かかわらなくちゃいけない人の数が10倍くらいになってしまって脳みそが動いてないんだと思います。この苦しみから抜け出す方法はただ一つ。自分がたくさん勉強して一芸を身に着けるしかないのだと思います。 ところで、現在はAutomotive Grade Linuxに興味を持って勉強しています。もちろん元来のPythonを用いたシミュレーションとか数値計算とかも継続しているのでそちらでも話かけてほしいですが、AGLもわからないことばかりなのでこれからたくさん勉強していこうと思います。 明日はDockerをいじって遊ぼうと思います。