linux 刷流量ip,程序员同事问shell脚本刷流量,不讨巧帮他填了一个巨坑

2022-11-11 11:03:11 浏览数 (1)

大家好,又见面了,我是你们的朋友全栈君。

程序员同事闲来无事

问我可以用shell脚本写个刷微博访问量的没。

于是脑海里想起了病毒营销或者fork×××这些词。

依稀操刀稀松吧啦的写了起来。

并测试了下,

脚本内容是下面这样的:

脚本跑起来的样子

当然仅仅是为了展示shell脚本威力。

当然还是希望大家靠实际的阅读量。

拿微信公众号来说,刷量增粉的很多。

同样笔者手里也有些软件。

但一次都没有使用过。

以来防止被中马,

二来做人如果都急功近利.

光追求虚妄的东西而没有实质内容。

没有实际转化率和留存,本质上就是自欺欺人。

不闲扯我们继续看

思路来源:Linux世界里著名的fork×××。

fork×××的源码 :

:(){:|:&};

这就像一颗疯长的二叉树,不断会消耗系统的资源。

fork()×××的影响规模是2n2n。

这个脚本当然不可能有如此催人泪下的破坏力

此处把规模控制在1,

由curl访问目标网页,标准输出重定向到文件read1中(看起来窗口会比较整洁)。

当准备去看read1时发现磁盘空间已经不足。

由于机器属于程序员内测。

没有设置磁盘阈值

于是虚惊一场,以为炸了。

礼貌性的 df -h

发现 / 下已经爆满,图上当然是处理过得。

看了下/home 下面有个data 是浅蓝色。

ll -lrt瞅了下

末端呈现 data –> /data

懂linux基础的都知道.,这就是软连接。

此处的意思就是你去访问这里的浅蓝色data

实际上访问的是/data

于是顺手进/data.删除了一些没用的安装包和日志。

发现稍有了空间。

接着用rsync -avzP /data /home/data2 备份下/data

当然发现执行df -h 后, / 根目录磁盘数据大小没变

/home 由原来的31G变为了36G

问这哥们,以前这么干的意义是什么?

这哥们说/home下面空间大。

/目录存放东西容易满,习惯用/home/data存数据

于是想做个软连接当访问/data时,访问到/home/data

没想到尽然错了一年之久。

怪不得每次存/home/data 总是会磁盘100%

于是在有/home/data2 备份的基础上,删除了原来的/data 目录

修正后结果如下:

/home 下的data 和 data2

总结:

大多数博客内容都会教你什么

ln -s 源目录 软连接文件

但很多新人甚至工作许久的老司机或者非专业人士

总是会模棱两可。

鉴于一般情况做软链是为了求取大空间

今天我教给大家一个简单的记忆方法

ln -s 源目录(数据空间大的) 链接目录(空间小)

如此这般,便轻轻松松祝你帮人填坑一把。

顺便在职场生涯里避免尴尬。

细节决定成败,

行千里者最怕的是鞋里有兜不干净的沙子。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/187889.html原文链接:https://javaforall.cn

0 人点赞