AI公司抓取网站内容用于其AI训练,站长本身并不一定愿意。过去几个月,主要AI服务都在商讨怎样让网站禁止AI蜘蛛抓取。现在出了有效简单的方法。
前两天曝出一个 Google蜘蛛存在的漏洞,可能被黑帽SEO利用XSS漏洞在别人网站注入链接。如果被大规模利用,显然是会影响权重流动和搜索排名的。
近两年的情况表明,网站启用https已是大势所趋。但由于懒,一直没有动作。在David Yin的激励下,终于在人际稀少的春节前夕把SEO每天一贴换到https了。
一个严重而且现实的SEO问题:很多网站,尤其是B2C,产品条件过滤系统会产生大量无效URL,怎样尽量使这些URL不被爬行和索引、收录呢?