初学者必懂的30条HTML代码编写

本文总结了30条html代码编写指南,只要在编写HTML代码的过程中牢记它们,灵活运用,你一定会写出一手漂亮的代码,早日迈入专业开发者的行列。?

1. 一定要闭合HTML标签

在以往的页面源代码里,经常看到这样的语句:

<li>Some text here. <li>Some new text here. <li>You get the idea.

也许过去我们可以容忍这样的非闭合HTML标签,但在今天的标准来看,这是非常不可取的,是必须百分百避免的。一定要注意闭合你的HTML标签,否则将无法通过验证,并且容易出现一些难以预见的问题。

最好使用这样的形式:

<ul> <li>Some text here. <li>Some new text here. <li>You get the idea.

2. 声明正确的文档类型( DocType )

笔者早先曾加入过许多CSS论坛,在那里,如果有用户遇到问题,我们会建议他首先做两件事:

  • 1. 验证CSS文件,解决所有可见的错误
  • 2. 加上文档类型 Doctype

DOCTYPE 定义在HTML标签出现之前,它告诉浏览器这个页面包含的是HTML,XHTML,还是两者混合出现,这样浏览器才能正确的解析标记。 (more…)

关于inurl:robots.txt的使用说明

对于标题有些朋友可能不明白是什么意思,这里我给大家介绍下inurl:robots.txt的作用。

首先,对于新站长要了解inurl:robots.txt的作用,我一定要先说下robots.txt,当然前期我也有写过关于robots.txt的文《利用robots提高页面的抓取率》大家可以参考一下。

总结性的说:robots.txt文件就是一个普通的文本文件,名称用小写,一般放在网站的根目录下。当一个搜索引擎机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。

细细的说:robots.txt的作用就是告诉搜索引擎哪些内容不要索引,一般为了实现如下目的而使用:

  1. 禁止搜索引擎索引系统文件,后台文件,模板文件,背景图片。这样做一方面可以防止搜索引擎收录很多无关内容,另外可以降低搜索引擎蜘蛛抓取网站时消耗的资源
  2. 禁止搜索引擎收录需要保密的文件,或者是隐私内容。不过值得注意的是,robots.txt只能告诉搜索引擎不收录这些内容,但是并不能防止这些内容被访问,如果是重要信息最好是设置密码。
  3. 网址规范化方面的应用。启用伪静态的网站,一般同时存在至少两套网址,一套是rewrite之后的静态地址,一套是原始的动态地址,如果不限制,搜索引擎可能会收录大量的重复内容。为了方式这种情况,可以将动态格式的地址禁止索引。

这里我所说的inurl:robots.txt主要是针对搜索引擎来使用的。大家不妨在g.cn和baidu.com中搜索一下试试,这里我搜索的结果是: (more…)

有意思的CSS口诀

一、IE边框若显若无,须注意,定是高度设置已忘记;

二、浮动产生有缘故,若要父层包含住,紧跟浮动要清除,容器自然显其中;

三、像素文本慢移不必慌,高度设置帮你忙;

四、兼容各个浏览须注意,默认设置行高可能是杀手;

五、独立清除浮动须铭记,行高设无,高设零,设计效果兼浏览;

六、学布局须思路,路随布局原理自然直,轻松驾驭html,流水布局少hack,代码清爽,兼容好,友好引擎喜欢迎。

七、所有标签皆有源,只是默认各不同,span是无极,无极生两仪—内联和块级,img较特殊,但也遵法理,其他只是改造各不同,一个*号全归原,层叠样式理须多练习,万物皆规律。

八、图片链接排版须小心,图片链接文字链接若对齐,padding和vertical-align:middle要设定,虽差微细倒无妨。

九、IE浮动双边距,请用display:inline拘。

十、列表横向排版,列表代码须紧靠,空隙自消须铭记。

本文由小莫的前端技术宅发布,Seo先生博客转载。

说百度大规模地震毁了多少人

“全球最大的中文搜索引擎、致力于让网民更便捷地获取信息,找到所求。百度超过千亿的中文网页数据库,可以瞬间找到相关的搜索结果。”这句是百度在baidu.com中给自己加的描述,从中易懂百度是致力于中文搜索,所以说百度只是国人的搜索引擎,一直不是成熟的国际化搜索引擎。做为一个国人使用的中文搜索引擎,必然带有着很大的漏洞,最起码他们的技术不是面向国际化的。

在6月22日,相信很多的站长都有所体会,今年迎来了百度大规模地震,这次的百度大规模地震毁了多少人呢?去年的百度算法大更新不知道大家还有没有印象,当时地震力度也是非常的强悍,当然共同点都还是服务器空间、备案、标题、描述、关键词、外链等的变化与改动。万变不离其宗,保证这些高质量,我相信你的站是没有多少变化的,最多也是那两天快照没有更新罢了。

在许多站长论坛我也有读到许多站长说自己的站是如何如何被K的,总结于一点那就是过度优化。搜索引擎一直不断的更新就是来过滤过度优化站点,所以这里还是想说白帽优化才是王道,本人负责公司的站点无问题,自己的几个小站也无问题,今日已全部恢复正常收录与快照。 (more…)