作者归档:子午

读《穷查理宝典》感悟二

《穷查理宝典》这本书值得第二次读,因为第一次太难懂了,这里先做下读书笔记,关于查理谈到的我们成功的关键。

读《穷查理宝典》感悟二
读《穷查理宝典》感悟二

1、我们赚钱,靠的是记住浅显的,而不是掌握深奥的。我们从来不去试图成为非常聪明的人,而是持续地试图别变成蠢货。也不要去做非法的事情。

2、激情和天分哪个重要?激情比头脑的能力重要。

3、明白要找真正好的东西很难,所以,就算你90%时间都在说“不”,你也不会错过太多的东西。

4、最大力度的挑战自己最爱的观念,一件事情如果不值得做,就不值得把它做好。

5、成功投资的关键因素之一就是要有良好的性格,大多数人都是按耐不住的,或者过度担心。你必须吸取教训的来源广泛,而不是从你自己糟糕的经验中吸取教训。还得有大量的求知欲望。

6、你需要的不是分散投资,而且极大的耐心,你必须坚持原则,等到机会来临,你就用力去抓住它们。

7、你遇到的困难更大,并不是意味着你没法做好,只是需要更多的时间而已,保护自己身体,活得更久。

8、得到系统的非常识,非常基础的知识,就是一种威力巨大的工具。有辨别智慧,就得多看书,你必须掌握思想和做合理事情的性格。

9、如果生活仅仅是发财,那是一种失败的生活,生活和生意上的成功大多数来自:避免过早死亡、糟糕的婚姻、染上艾滋、路口抢道以及吸毒等等。

10、培养良好的心理习惯。如果因为你的特立独行而在周围人中不受欢迎,就随他去吧。

11、满足你所拥有的,就算别人比你富有,赚钱速度比你快,那又怎么样呢?总是会有人的财富增长速度比你快。这并不可悲。

12、千万不要嫉妒,妒忌真的是一种愚蠢的罪行,你不会得到任何乐趣,只会让你困苦不堪。

13、每天起床的时候,争取变得比你以前聪明一点。认真出色的完成你的任务。慢慢你就会进步,进步不一定很快,只要你为进步打下基础,每天进步一点点,到最后,你就会得到自己相应的东西。

14、找到配偶最佳的方法是什么呢?唯一的最佳方法就是你首先必须值得拥有好的配偶。因为从定义上来讲,好配偶可绝不是傻瓜。

15、聪明的人没有不每天阅读的,讲书中提到的概念和提出它们的伟人的生活和个性链接起来。和逝去的伟人做朋友,想过上更好的生活,就得有更好的教育。

16、在生活中不需要大量愚蠢的需求,你不需要很多物质的商品。

17、你一旦走进负债的怪圈,就很难走出来。千万别欠信用卡的钱,你无法在支付利息的情况下取得进展。

18、如果有人问我会不会弹钢琴,查理回答,我不知道,我从来没试过。

19、避免反复无常,去虔诚的做好正在做的事情;广泛吸取前辈最好的成果,了解新鲜事物;遇到任何失败,都不要意志消沉、一蹶不振,即使最聪明、最幸运的人,也会经历许许多多的失败,但请乐观积极对待,一个奴隶、身体残疾,极其穷困,也要有一个感恩的心;尽量客观的看待和处理事情。

20、保持冷静,当有人变得疯狂,纷纷指责你,如果你能相信自己,就随他们去吧。

21、五何原则,何人因何故在何时何地做了何事。

今天就写这么多吧,有点累,早点休息!

读《穷查理宝典》感悟一

好朋友推荐了《穷查理宝典》,今天在微信读书开始读,总共1664页(可能有出入),今天下午一口气读了337页,按照这个进度,4-5天,就可以读完了。

今天,先来总结下今天的感悟,也叫读书笔记吧。

读《穷查理宝典》感悟一
读《穷查理宝典》感悟一

1、西塞罗说,如果一个人正直又勤奋,那么他就算最终得到贫困潦倒的结果,也跟那些获得巨大成功的人一样值得尊敬,但他也承认,太贫穷会让晚年的生活变得很艰难。

这里有句很深的感悟,人可以清贫,但不能贫穷。

2、晚年的最佳保护铠甲是一段在它之前被悉心度过的生活,一段被用于追求有益的知识、光荣的功绩和高尚的举止的生活;过着这种生活的人从青年时代就致力于提升他自己,而且讲会在晚年收获它们产生的最幸福的果实;这不仅是因为有益的知识、光荣的功绩和高尚的举止将会陪伴他终生,甚至直到生命的最后一刻,也会因为见证了正直的人生的良心和对过往美好功绩的回忆,将会给灵魂带来无上的安慰。

来之西塞罗的《论晚年》。

3、找出你最擅长的事情,然后持之以恒、乐此不疲的去把它做好。

4、凡是往简单处想,往认真处行。

5、未雨绸缪、富有耐心、律己严历和不偏不倚,是最基本的指导原则。

6、随大流只会让你往平均值靠近,反过来想问题,朝前看、往后想。当别人贪婪的时候,要害怕,当别人害怕的时候,要贪婪。

7、唯一获胜的方法就是工作、工作、工作,并且有一点洞察力。

8、通过广泛的阅读把自己培养成一个终生自学者,培养好奇心,每天努力使自己聪明一点点。

9、持有怀疑的心态,每天问自己为为什么、为什么。

10、只在自己明确界定的能力圈内行事,这个圈太难确定了啊,哈哈哈哈。

11、最重要的是,别愚弄你自己,而且要记住,你是最容易被自己愚弄的人。

12、复利是世界第八大奇迹。

13、享受结果、也享受过程,因为你活在过程当中。

这一点真的深有体会,你去做一件事情的时候,定好了目标,就不要去太关注了结果了,你只有去享受过程,优化过程,结果自然就会越来越好。

14、人的任务不是去看清远处模糊的东西,而是去做好身边清楚的事情。

15、不断地挑战和主动修正自己的观点,并正视现实,即使你不喜欢它。直面自己的大问题,别把它们藏起来。

16、认识和适应你身边的世界的真实本质,别指望它来适应你。

17、学习的真正乐趣在于,更加深刻的理解人类的本性、世界的现状、如何理性思考,以及最重要的,如何更好的过上一种正直、幸福、善良的生活。

最喜欢的人物越来越多,比如我们芒格、巴菲特、加缪,最近也比较喜欢罗永浩,哈哈哈哈。

网站site页面不更新的情况

最近,有很多朋友反映网站site页面不更新,本博客也是索引页面不更新,为什么会这样呢?

之前在这篇百度索引量为什么一直不变介绍过,处理里面的原因外,还忽视了一个重要的原因,百度自身的策略原因。

网站site页面不更新的情况
网站site页面不更新的情况

因为最近在观察自己的网站,发现网站收录有问题,本来备案的网站都会显示备案号,但是本博客并没有显示,况且还做过公安部备案的。

为此,特意去百度站长平台反馈中心提交了反馈,得到的反馈如下图:

网站site页面不更新的情况
网站site页面不更新的情况

这就说明了,不是网站的问题,而是百度策略还在调整中。相信不久之后,网站site页面会更新过来了。

其实site页面很重要,如果你的网站首页site不在第一页,说明你网站是有点小问题的,可能这点小问题,直接影响了网站seo排名和流量了。

所以,建议那些网站site页面和索引页面不变的朋友,耐心等待下,把网站seo该做的做好,等待百度更新。

我们做seo的人,都是靠搜索引擎吃饭的,只有网站符合搜索引擎的初衷,那么,你的网站在不久的将来,一定会获取比较好的权重和流量。

做seo的人切记,如果是小型网站,网站内容一定要垂直,这样有利于集权,能够提升网站的排名和权重。

关于网站site页面不更新的情况的问题,我们就简单说下,欢迎大家留言评论。

域名SSL安全证书都涨价了

最近,大家发现没,不管什么东西,都开始涨价了。我们涉及的域名、建站、自媒体,都涨价了。今天域名ssl需要续费了,发现域名SSL安全证书都涨价了。

之前只需要1元,现在需要28元,还是优惠户的价格,原价是98元,这个直接翻了98倍,真是无法理解。

域名SSL安全证书都涨价了
域名SSL安全证书都涨价了

为什么那么多人,不做网站了,一方面是seo排名流量不好做,另一方面,建站的成本越来越高了。

除了硬性的域名、服务器、ssl等费用外,还有很多无形的成本,如人力成本(网站服务器维护、网站内容维护等等),这些都是很多成本。

域名SSL安全证书都涨价了,如何很多人做网站赚不到钱,那么网站会越来越少。

当然,这是危机也是机会,那些深耕网站行业,用心做网站内容的人,慢慢会赚到一波红利。

当然,网站有流量还是一回事,变现是另外一回事,当然流量是变现的前提。

我们这些站长,真的不容易,最早和搜索引擎斗智斗勇,现在和自媒体斗智斗勇,头都快秃了,还是没有盈利,也是狗了。

活该,你是一个站长狗!

WordPress的All in One SEO插件的meta robots说明

如果你的网站上Wordpress搭建的话,应该会按照Wordpress很牛逼的插件,AIOSEO,AIOSEO全名All in One SEO,这个插件应该是Wordpress插件最火的一个了。

最近在更新AIOSEO插件的时候,碰到碰到一个问题,也不叫问题吧,叫疑问。

新安装的AIOSEO插件,有个meta robots属性,凡是所有的分页和feed,都会被自动加上这个标签。形式如下图:

<meta name=”robots”content=”noindex,nofollow”>

这个meta标签是告诉搜索引擎不要索引本页面,也不要爬行本页面。

按道理来讲,很多分页,如栏目页、标签页,屏蔽是好事情,但是有一个很重要的事情,屏蔽了这类页面,会导致蜘蛛不爬行本页面的其他链接,这个是不是对seo有影响呢?

我觉得影响蛮大的,至少很多分页的页面无法被收录,对于搜索引擎来讲,会影响蜘蛛对于这个网站的信任度。

我建议,最好不要使用meta robots,来屏蔽某类页面,这个会直接导致页面收录降低,关于网站robots.txt文件那些事情,这里讲的很清楚,就不再累赘了。

但是你可以通过meta robots屏蔽某些页面,这种方法我觉得是可取的。

关于All in One SEO插件的meta robots,如果你想进行调整,你可以到All in One SEO插件的搜索外观进行调整,如下图。

Wordpress的All in One SEO插件的meta robots说明
WordPress的All in One SEO插件的meta robots说明

只要你不勾选,就可以了,直接把最大图片预览,改成标准,然后保存就可以了。

我是建议,让蜘蛛爬行所有的页面,尽量少用或者不用All in One SEO插件的meta robots标签,以免造成不必要的影响和麻烦,影响seo效果。

每天更新网站能把排名提升上去吗

最近,有客户咨询问,如果我每天更新网站内容,能不能把网站排名提升上去呢?针对这个问题,要具体问题具体分析。

每天更新网站能把排名提升上去吗
每天更新网站能把排名提升上去吗

1、小型网站、关键词难度低

对于这种网站,只要你每天更新网站内容,网站内容原创性搞,网站没有特别的毛病,比如很多死链、服务器不稳定等,一般网站排名能提升上去的。

关键词难度不大,而且网站内容好,网站基础优化做了,比如内链、面包屑等,网站结构又好的话,一般半年左右排名就会上去。

当然,难度大的词,做上去的可能性很小。

2、中型网站、关键词难度一般

这种网站长期更新网站内容,一般的关键词也会很容易上去。

中型网站做一般的长尾词,怎么挖掘长尾关键词?这个问题,我们之前有介绍过了。

做中型网站关键词排名还是很简单的,只要你的网站不涉及黑灰产业,一般都可以上去的。

3、大型网站、关键词难度高

大型网站每天更新的内容就不是1、2篇了,而是100、200篇文章,这种网站,只要文章被收录了,排名就会很好。

那么如果判断网站上小型的、中型的还是大型的呢?这里有个参考标准。10万个页面一下,都是小型网站,100万以上的页面是中型网站,1000万以上的页面是大型网站。

针对这个问题,其实没有统一的答案,当然每天更新网站文章是必要的,对排名是有促进作用的。

谷歌站长平台有个很牛逼的功能

如果你发现网站排名做不上去,百度站长工具不会有任何数据显示网站出现什么问题,但是谷歌站长工具就会。

这个功能是百度站长平台没有的,只有谷歌站长平台有,就是蜘蛛抓取网页会反馈哪些页面出现什么问题。如下图。

谷歌站长平台有个很牛逼的功能
谷歌站长平台有个很牛逼的功能

上图就是告诉你,哪些页面谷歌爬行了,但是没有索引,然后点击进去,能够具体看哪些页面没有索引,为什么这些页面没有索引。

这一点对于我们seo人员来讲,非常重要了,进入详细页面,你会有很多惊喜。

这些页面可能网站上没有的,被别人挂码了,你自己去打开网页,通常是发现不了的,只有蜘蛛爬行的时候,才会爬行到这种页面,牛逼吧。

截图给大家看看,这个博客爬行的页面,难怪排名做不上去。

谷歌站长平台有个很牛逼的功能
谷歌站长平台有个很牛逼的功能

看到了吗?网站被植入很多垃圾页面和非法页面,这种页面只能通过robots文件进行屏蔽,防止蜘蛛爬行。

这种页面,百度统计还没有,也不知道上哪些IP访问,只有搜索引擎爬行才会有,这个就需要通过分析网站日志来处理了。

这个还没有接触过,以后得好好学习下了。

如果大家知道这个是怎么回事?欢迎大家留言交流。

不精通说明还没有触及到核心点

最近有个特别深的感触,任何没有达到预期的东西,都是因为你没有触及到核心点。

这里的核心点,可以扩展到很多方方方面面。

不精通说明还没有触及到核心点
不精通说明还没有触及到核心点

比如你做seo,你优化一个网站,始终没有得到很好的排名,网站也没有什么流量,说明你没有触及到seo的核心点。

再比如,你是在一家公司上班,你始终处于现在的水准,没有往更高的层次上走,说明你没有触及到职场的核心点,这个核心点有很多,比如人际关系、技术能力、业务水准等等。

再再比如,创业这件事情,如果你没有触及到核心点,很难把一家公司做到盈利,并且达到持续稳定的水准。创业过程中,比如流量来源、供应商渠道、独特的销售模式、团队合作等等,每个都很重要,每个环节都有核心点,这是一个综合的过程。

回到主题,如果你不精通,没做成事,说明没有触及到核心点。

这个核心点不是很高深的技术,有很多人都能通过学习掌握。

回到seo这个话题,怎么才能触及到核心点呢?这个核心点并不是固定的,而是变化的。比如在做网站seo一定要检查服务器设置问题,这篇文章中讲的这样,对于这个网站的seo,他的核心点事服务器设置的问题,只要解决了这个核心点,网站seo流量就非常好了。

这个核心点非常非常重要,如果遇到了瓶颈,一定要静下来想,问题出在哪?找到了这个核心点,然后去解决它,事情一定会越来越好。

关于网站robots.txt文件那些事情

网站优化的人都知道,robots.txt文件是告诉搜索引擎,那些可以抓取,那些不能抓取,今天,我们来系统讲讲robots.txt文件那些事情。

如何通过Robots协议屏蔽搜索引擎抓取网站内容?

Robots协议(也称为爬虫协议、机器人协议等)的全称是网络爬虫排除标准(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。避免出现网站被爬虫访问,导致耗费大量流量和宽带的问题。

robots.txt文件的参数配置说明

如果有些网站页面访问消耗性能比较高,不希望被搜索引擎抓取,您可以在站点根目录下存放robots.txt文件,屏蔽搜索引擎或者设置搜索引擎可以抓取文件的范围以及规则

robots.txt文件的参数配置说明如下:

Robots协议不是强制协议,通过robots.txt文件能够保护您的一些文件不暴露在搜索引擎之下,从而有效地控制爬虫的抓取路径。但是,部分搜索引擎或者伪装成搜索引擎的爬虫不会遵守该协议,对于不遵守该协议的情况,以下处理方法无效。

关于网站robots.txt文件那些事情
关于网站robots.txt文件那些事情

操作示例

本部分以下面场景为例,为您展示通过Robots协议屏蔽搜索引擎抓取网站内容的方法,操作示例如下所示。

示例一:执行以下命令,禁止所有搜索引擎访问网站的任何资源。

User-agent: *
Disallow: /

示例二:执行以下命令,允许所有搜索引擎访问任何资源。

User-agent: *
Allow: /

说明:您也可以建一个/robots.txt空文件,将Allow的值设置为/robots.txt。

示例三:执行以下命令,禁止某个搜索引擎(例如Google)访问网站。

User-agent: Googlebot
Disallow: /

示例四:执行以下命令,允许某个搜索引擎(例如Baidu)访问网站。

User-agent: Baiduspider
allow: /

示例五:执行以下命令,禁止所有搜索引擎访问特定目录。

User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /data/

示例六:执行以下命令,允许访问特定目录中的部分URL,实现a目录下只有b.htm允许访问。

User-agent: *
Allow: /a/b.htm
Disallow: /a/

关于关于网站robots.txt文件那些事情,我们就简单介绍这些,希望对你有帮助。

做网站seo一定要检查服务器设置问题

一个客户的网站,很奇怪,从2023年4月份开始,网站流量直接从4000多ip掉到几百IP,其中的原因是网站被dos攻击,导致网站流量直接降到500左右。

这里首先需确定的是,在做网站seo的时候,一定要确保网站服务器安全和稳定性。

为什么客户的流量直接从4000多降到500呢?而且持续了半年之久,客户一直没有找到问题,然后咨询到我们。

经过我们技术排查发现,网站只从上次被dos攻击之后,网站屏蔽了海外访问,这个就是很严重的问题,这种屏蔽会把国内很多ip被屏蔽了,这个是导致网站流量下降的主要原因。

我们seo技术人员,就直接取消了这个屏蔽,网站流量就一直往上涨了,应该过不了多久,网站权重和流量会恢复到以前的水准了。如下图:

做网站seo一定要检查服务器设置问题
做网站seo一定要检查服务器设置问题

说句题外话,现在网站seo本来就难做,网站还经常收到攻击。

特别是那种有流量的网站,经常被黑灰产业的人攻击,真的是够了,做个人吧。

毕竟大家做网站也不容易,人家辛辛苦苦做的网站,流量被人攥去,真的不公平,大家在做网站seo的时候,一定要做好服务器设置问题。

当然网站的程序也会有很多漏洞,这个时候,就需要过硬的技术了,不懂技术的,可以找技术大牛帮忙协助。

很庆幸,我身边的技术大牛很多,真心感谢大家!