LA GRAVEDAD EN FUNSIÓN DE LA BIOQUÍMICA DE LOS VEGETALES. EL COMPORTAMIENTO DE LAS EXTRUCTURAS CON EL CENIT SOLAR.

LA GRAVEDAD EN FUNSIÓN DE LA BIOQUÍMICA DE LOS VEGETALES Y EL COMPORTAMIENTO DE SUS EXTRUCTURAS CON EL CENIT SOLAR, A LO LARGO DE LA RUTA DE LAS ESPECIES.La curvatura del espacio-tiempo es una de las principales consecuencias de la teoría de la relatividad general de acuerdo con la cual la gravedad es efecto o consecuencia de la geometría curva del espacio-tiempo. Los cuerpos dentro de un campo gravitatorio siguen una trayectoria espacial curva, aún cuando en realidad pueden estar moviéndose según líneas de universo lo más “rectas” posibles a través un espacio-tiempo curvado. Las líneas más “rectas” o que unen dos puntos con la longitud más corta posible en determinado espacio-tiempo se llaman líneas geodésicas y son líneas de curvatura mínima.Las ideas básicas que llevaron a la noción de que el espacio físico es curvo y por tanto no euclídeo a los muchos intentos, a lo largo de varios siglos, para probar si el quinto postulado de Euclides podía derivarse del resto de axiomas de la geometría euclídea. Este postulado afirma que fijada una recta y un punto exterior a ésta, existe una y sólo una recta paralela a la primera que pase por dicho punto.
Esos intentos culminaron con la constatación por Bolyai y Gauss de que este axioma o postulado de las paralelas puede obviarse, y se pueden construir geometrías donde simplemente el postulado es falso, dando lugar a las geometría no euclídeas. Así además del espacio plano o euclídeo, podemos construir otros espacios de curvatura constante como:

  • El espacio abierto hiperbólico de Bolyai-Lobachevski en el que existe no una, sino infinitas rectas paralelas a una recta dada que pasen por un punto exterior prefijado.
  • El espacio cerrado elíptico de Riemann en el que no existe ninguna recta paralela exterior a otra dada que no se intersequen.La gravedad y las dimensiones, una funsión del espasio-tiempo y de la energía masa


    Sir Isaac Newton formuló la Ley de Gravitación Universal.

    La gravedad es una de las cuatro interacciones fundamentales. Origina la aceleración que experimenta un cuerpo físico en las cercanías de un objeto astronómico. También se denomina interacción gravitatoria o gravitación.
    Por efecto de la gravedad tenemos la sensación de peso. Si estamos situados en las proximidades de un planeta, experimentamos una aceleración dirigida hacia la zona central de dicho planeta —si no estamos sometidos al efecto de otras fuerzas—. En la superficie de la Tierra, la aceleración originada por la gravedad es 9.81 m/s², aproximadamente.
    Albert Einstein demostró que: «Dicha fuerza es una ilusión, un efecto de la geometría del espacio-tiempo. La Tierra deforma el espacio-tiempo de nuestro entorno, de manera que el propio espacio nos empuja hacia el suelo».[1] Aunque puede representarse como un campo tensorial de fuerzas ficticias.
    La gravedad posee características atractivas, mientras que la denominada energía oscura tendría características de fuerza gravitacional repulsiva, causando la acelerada expansión del universo
    En la teoría newtoniana de la gravitación, los efectos de la gravedad son siempre atractivos, y la fuerza resultante se calcula respecto del centro de gravedad de ambos objetos (en el caso de la Tierra, el centro de gravedad es su centro de masas, al igual que en la mayoría de los cuerpos celestes de características homogéneas). La gravedad newtoniana tiene un alcance teórico infinito; pero la fuerza es mayor si los objetos están próximos, y mientras se van alejando dicha fuerza pierde intensidad. Además Newton postuló que la gravedad es una acción a distancia (y por tanto a nivel relativista no es una descripción correcta, sino solo una primera aproximación para cuerpos en movimiento muy lento comparado con la velocidad de la luz).
    La ley de la gravitación universal formulada por Isaac Newton postula que la fuerza que ejerce una partícula puntual con masa m_1 sobre otra con masa m_2 es directamente proporcional al producto de las masas, e inversamente proporcional al cuadrado de la distancia que las separa:

    \mathbf{F}_{21} = -G \frac {m_{1}m_{2}} {|\mathbf{r_2}-\mathbf{r_1}|^2}\mathbf{\hat{u}}_{21}

    donde \mathbf{\hat{u}}_{21} es el vector unitario que dirigido de la partícula 1 a la 2, esto es, en la dirección del vector \mathbf{r}_{21}=\mathbf{r}_2-\mathbf{r}_1, y G \,\! es la constante de gravitación universal, siendo su valor aproximadamente 6,674 × 10−11 N·m²/kg².
    Por ejemplo, usando la ley de la gravitación universal, podemos calcular la fuerza de atracción entre la Tierra y un cuerpo de 50 kg. La masa de la Tierra es 5,974 × 1024 kg y la distancia entre el centro de gravedad de la Tierra (centro de la tierra) y el centro de gravedad del cuerpo es 6378,14 km (igual a 6 378 140 m, y suponiendo que el cuerpo se encuentre sobre la línea del Ecuador). Entonces, la fuerza es:

    F = G \frac {m_{1} m_{2}} {d^2} = 6.67428 \times 10^{-11} \frac {50 \times 5. 974 \times 10^{24}} {6378140^2} = 490 .062 \text{N}

    La fuerza con que se atraen la Tierra y el cuerpo de 50 kg es 490.062 N (Newtons, Sistema Internacional de Unidades), lo que representa 50 kgf (kilogramo-fuerza, Sistema Técnico), como cabía esperar, por lo que decimos simplemente que el cuerpo pesa 50 kg.
    Dentro de esta ley empírica, tenemos estas importantes conclusiones:

    • Las fuerzas gravitatorias son siempre atractivas. El hecho de que los planetas describan una órbita cerrada alrededor del Sol indica este hecho. Una fuerza atractiva puede producir también órbitas abiertas, pero una fuerza repulsiva nunca podrá producir órbitas cerradas.
    • Tienen alcance infinito. Dos cuerpos, por muy alejados que se encuentren, experimentan esta fuerza.
    • La fuerza asociada con la interacción gravitatoria es central.
    • A mayor distancia menor fuerza de atracción, y a menor distancia mayor la fuerza de atracción.

    A pesar de los siglos, hoy sigue utilizándose cotidianamente esta ley en el ámbito del movimiento de cuerpos incluso a la escala del Sistema Solar, aunque esté desfasada teóricamente.

    Presencia de materia y curvatura[editar]

    La densidad de energía-momentum en la teoría de la relatividad se representa por cuadritensor energía-impulso. Las componentes de dicho tensor representan entre otras la densidad de energía y la densidad de momentum y dichas componentes están relacionadas localmente con las componentes del curvatura. La relación entre la presencia de materia y la curvatura debida a dicha materia viene dada por la ecuación de campo de Einstein:

    R_{\mu\nu} - {1\over 2}R g_{\mu\nu} + \Lambda g_{\mu\nu} = {8 \pi G \over c^4} T_{\mu\nu}

    donde:
    R_{\mu\nu}\,, es el tensor de curvatura de RicciR\, es el escalar de curvatura de RicciT_{\mu\nu}\,, es el tensor de energía-impulsoEn la Geodesia matemática se formulan los métodos y las técnicas para la construcción y el cálculo de las coordenadas de redes de puntos de referencia para el levantamiento de un país o de una región. Estas redes pueden ser referenciadas para nuevas redes de orden inferior y para mediciones topográficas y registrales. Para los cálculos planimétricos modernos se usan tres diferentes sistemas de coordenadas, definidos como ‘proyecciones conformes’ de la red geográfica de coordenadas: la proyección estereográfica (para áreas de pequeña extensión), la proyección ‘Lambert’ (para países con grandes extensiones en la dirección oeste-este) y la proyección Mercator transversal o proyección transversal de Gauss (p.e. UTM), para áreas con mayores extensiones meridionales.
    Según la resolución de la IUGG (Roma, 1954) cada país puede definir su propio sistema de referencia altimétrica. Estos sistemas también son llamados ‘sistemas altimétricos de uso’. Tales sistemas de uso son, p.e., las alturas ortométricas, que son la longitud de la línea vertical entre un punto P y el punto P’, que es la intersección de aquella línea de las verticales con el geoide. Se determina tal altura como la cota Geopotencial c a través de la relación, donde es la media de las aceleraciones de gravedad acompañando la línea PP’, un valor que no es conmensurable directamente, y para determinarlo se necesita de más informaciones sobre la variación de las masas en el interior de la Tierra. Las alturas ortométricas son exactamente definidas, su valor numérico se determina apenas aproximadamente. Para esa aproximación se usa también la relación (fórmula) donde la constante es la media de las aceleraciones de gravedad.
    La geodesia se aplica bastante en lo que se refiere a áreas de mapeos y en términos de mediciones de terrenos (catastro).
    En termodinámica, dentro de la física y en termoquímica dentro de la química, potencial químico, cuyo símbolo es μ, es un término introducido en 1876 por el físico estadounidense Willard Gibbs, que él definió como sigue:

    «Si suponemos que se añade una cantidad infinitesimal de cualquier sustancia a una masa homogénea cualquiera en un estado de tensión hidrostática, que la masa permanece homogénea y su entropía y la presión permanecen constantes, el incremento de la energía interna de la masa dividida por la cantidad de la sustancia añadida es el potencial para esa sustancia en la masa considerada.»

    Gibbs también pensó que para los propósitos de esta definición, cualquier elemento químico o combinación de elementos en unas proporciones dadas podrían ser considerados una sustancia, tanto si pudieran existir por sí mismos como un cuerpo homogéneo, como si ninguno pueda hacerlo.
    Más simplemente, el potencial químico también se define como la tendencia de un componente a escapar de una determinada fase, así, si el potencial químico es alto, el componente tenderá a salir lo más rápido posible de la fase en que se encuentra y al contrario, si es bajo (incluyendo valores negativos), tenderá a permanecer en ella.[cita requerida

]
El potencial químico de un sistema termodinámico es el cambio de energía que experimentaría el sistema si fuera introducida en éste una partícula adicional, manteniendo la entropía y el volumen constantes. Si un sistema contiene más de una especie de partículas, hay un potencial químico diferente asociado a cada especie, definido como el cambio en energía cuando el número de partículas de esa especie se incrementa en una unidad. El potencial químico es un parámetro fundamental en termodinámica y se asocia a la cantidad de materia.
El potencial químico es particularmente importante cuando se estudian sistemas de partículas que reaccionan. Consideremos el caso más simple de dos especies, donde una partícula de la especie 1 puede transformarse en una partícula de la especie 2 y viceversa. Un ejemplo de un sistema de esta clase sería una mezcla supersaturada de agua líquida (especie 1) y vapor de agua (especie 2). Si el sistema está en equilibrio, los potenciales químicos de las dos especies deben ser iguales. De lo contrario, cualquier incremento en un potencial químico produciría emisión neta e irreversible de energía del sistema en forma de calor[
1] cuando esa especie con el potencial incrementado se transformara en la otra especie, o una ganancia neta de energía (de nuevo en forma de calor) si tuviera lugar la transformación reversible. En las reacciones químicas, las condiciones de equilibrio son generalmente más complicadas ya que intervienen más de dos especies. En este caso, la relación entre los potenciales químicos en el equilibrio viene dada por la ley de acción de las masas.
Puesto que el potencial químico es una cantidad termodinámica, es definido independientemente del comportamiento micróscopico del sistema, es decir, de las propiedades de las partículas que lo constituyen. Sin embargo, algunos sistemas contienen importantes variables que son equivalentes al potencial químico. En los gases y líquidos de Fermi, el potencial químico en el cero absoluto de temperatura es equivalente a la energía de Fermi. En los sistemas electrónicos, el potencial químico está relacionado con el potencial eléctrico eficaz.El pH es una medida de acidez o alcalinidad de una disolución. El pH indica la concentración de iones hidronio [H3O]+ presentes en determinadas disoluciones.
La sigla significa ‘potencial hidrógeno’, ‘potencial de hidrógeno’ o ‘potencial de hidrogeniones’ (pondus hydrogenii o potentia hydrogenii; del latín pondus, n. = peso; potentia, f. = potencia; hydrogenium, n. = hidrógeno). Este término fue acuñado por el químico danés S. P. L. Sørensen (1868-1939), quien lo definió en 1909 como el opuesto del logaritmo en base 10 (o el logaritmo del inverso) de la actividad de los iones hidrógeno. Esto es:

\mbox{pH} = -\log_{10} \left[ \mbox{a}_{H^+} \right]

Desde entonces, el término “pH” se ha utilizado universalmente por lo práctico que resulta para evitar el manejo de cifras largas y complejas. En disoluciones diluidas, en lugar de utilizar la actividad del ion hidrógeno, se le puede aproximar empleando la concentración molar del ion hidrógeno.
Por ejemplo, una concentración de [H3O+] = 1 × 10−7 M (0,0000001) es simplemente un pH de 7, ya que pH = –log[10−7] = 7
En disolución acuosa, la escala de pH varía, típicamente, de 0 a 14. Son ácidas las disoluciones con pH menores que 7 (el valor del exponente de la concentración es mayor, porque hay más iones en la disolución) y alcalinas las de pH superiores a 7. Si el disolvente es agua, el pH = 7 indica neutralidad de la disolución.
En productos de aseo y limpieza se suele usar la expresión “pH neutro”. En este caso la neutralidad hace referencia a un nivel de pH 5,5. Debido a las características de la piel humana, cuyo pH es 5,5[cita requerida
], se indica neutralidad de pH en este tipo de productos que están destinados a entrar en contacto con la piel para destacar su no agresividad. Si se aplicaran productos de pH 7 a la piel se produciría una variación del pH cutáneo con posibles consecuencias negativas

Definición[editar]

Considere un sistema termodinámico que contiene n especies constitutivas. Su energía interna total U se postula como una función de la entropía S, el volumen V, y la cantidad de materia (o de sustancia) de cada especie n1,…, nn:

U=U(S,V,n_1,..n_n)\,Refiriéndonos a U como la energía interna, remarcamos que las contribuciones de energía resultantes de las interacciones entre el sistema y los objetos externos están excluidas. Por ejemplo, la energía potencial gravitacional del sistema con la Tierra no está incluida en U.
El potencial químico de la especie i del sistema, μi se define como la derivada parcial:
\mu_i = \left( \frac{\partial U}{\partial n_i} \right)_{S,V, n_{j \ne i}}donde los subíndices indican simplemente que la entropía, el volumen, y la cantidad de materia de las otras especies deben ser mantenidos constantes.
En sistemas reales, generalmente resulta difícil mantener la entropía constante, ya que esto implica un buen aislamiento térmico. Por lo tanto, es más conveniente definir la energía libre de Helmholtz A, que es una función de la temperatura T, el volumen, y la cantidad de materia:[
2]

A = A(T,V,n_1,..n_n)\,El potencial químico definido a partir de la energía libre de Helmholtz sería:
\mu_i = \left( \frac{\partial A}{\partial n_i} \right)_{T,V, n_{j \ne i}}Los experimentos de laboratorio se realizan a menudo bajo condiciones de presión y temperatura constantes. En estas condiciones, el potencial químico es la derivada parcial de la energía libre de Gibbs respecto a la cantidad de materia:
\mu_i=\left(\frac{\partial G}{\partial n_i}\right)_{T,p,n_{j\neq i}}Una expresión similar para el potencial químico puede ser escrita a partir de la derivada parcial de la entalpía, bajo condiciones de entropía y presión constantes.

Potencial químico electrónico[editar]

El potencial químico electrónico es la derivada funcional de la funcional densidad respecto a la densidad electrónica.

\mu(\mathbf{r})=\left[ \frac{\delta E[\rho]}{\delta \rho(\mathbf{r})}\right]_{\rho=\rho_{ref}}

Formalmente, una derivada funcional genera muchas funciones, pero es una función particular cuando se halla su valor a partir de una densidad electrónica de referencia; de igual forma que una derivada genera una función, pero es un número particular cuando se halla su valor a partir de un punto de referencia. La densidad funcional se escribe como:

E[\rho] = \int \rho(\mathbf{r})\nu(\mathbf{r})d^3r + F[\rho]

donde \nu(\mathbf{r}) es el potencial externo; por ejemplo, el potencial electrostático de los núcleos y campos aplicados; y F es la funcional universal, que describe las interacciones electrón-electrón; por ejemplo, la repulsión electrónica de Coulomb, la energía cinética, y los efectos no-clásicos de intercambio y correlación. Con esta definición general de la funcional densidad, el potencial químico se escribe como:

\mu(\mathbf{r}) = \nu(\mathbf{r})+\left[\frac{\delta F[\rho]}{\delta\rho(\mathbf{r})}\right]_{\rho=\rho_{ref}}

Por tanto, el potencial químico electrónico es el potencial electrostático eficaz experimentado por la densidad electrónica.
El estado fundamental de la densidad electrónica se detemina a partir de una optimización variacional restringida de la energía electrónica. El multiplicador de Lagrange que hace cumplir la restricción de la normalización de la densidad es también llamado el potencial químico, es decir:

\delta\left\{E[\rho]-\mu\left(\int\rho(\mathbf{r})d^3r-N\right)\right\}=0

donde N es el número de electrones en el sistema y \mu es el multiplicador de Lagrange que hace cumplir la restricción. Cuando este enunciado variacional se cumple, los términos del interior de la llave obedecen la propiedad:

\left[\frac{\delta E[\rho]}{\delta\rho(\mathbf{r})}\right]_{\rho=\rho_{0}} - \mu \left[\frac{\delta N[\rho]}{\delta\rho(\mathbf{r})}\right]_{\rho=\rho_{0}}=0

donde la densidad de referencia es la densidad que minimiza la energía. Esta expresión se simplica como:

\left[\frac{\delta E[\rho]}{\delta\rho(\mathbf{r})}\right]_{\rho=\rho_{0}}=\mu

El multiplicador de Lagrange que hace cumplir la restricción es, por definición, una constante; sin embargo, la derivada funcional es, formalmente, una función. Por tanto, cuando la densidad minimiza la energía electrónica, el potencial químico tiene el mismo valor en cada punto del espacio. El gradiente del potencial químico es un campo eléctrico efectivo. Un campo eléctrico describe la fuerza por unidad de carga como una función del espacio. Por consiguiente, cuando la densidad se encuentra en el estado fundamental, la densidad electrónica es estacionaria, porque el gradiente del potencial químico (que no varía respecto a la posición) es cero en cualquier lugar, es decir, todas las fuerzas están equilibradas. Cuando la densidad experimenta un cambio desde un estado no fundamental al estado fundamental, se dice que experimenta un proceso de igualación del potencial químico.
Algunas veces se considera el potencial químico de un átomo como el negativo de la electronegatividad del átomo. De forma similar a veces el proceso de igualación del potencial químico es llamado el proceso de igualación electronegativa. Esta relación proviene de la definición de electronegatividad de Mulliken. Al introducir las definiciones energéticas del potencial de ionización y de la afinidad electrónica en la electronegatividad de Mulliken, es posible demostrar que el potencial químico de Mulliken es una aproximación finita de la derivada parcial de la energía electrónica respecto al número de electrones, es decir:
\mu_{Mulliken}=-\chi_{Mulliken}=-\frac{IP+EA}{2}=\left[\frac{\delta E[N]}{\delta N}\right]_{N=N_0}donde IP y EA son el potencial de ionización y la afinidad electrónica del átomo, respectivamente.

Potencial químico de partículas elementales[editar]

Durante los últimos años la física térmica ha aplicado la definición de potencial químico a sistemas de la física de partículas y sus procesos asociados. En general, el potencial químico mide la tendencia de las partículas a difundirse. Esta característica señala al potencial químico como una función de localización espacial. Las partículas tienen tendencia a difundirse desde regiones de alto potencial químico a regiones de bajo potencial químico.[3] Siendo una función de la energía interna, el potencial químico se aplica de forma equivalente a fermiones y bosones. Esto es, en teoría, a cualquier partícula elemental se le puede asignar un valor de potencial químico, dependiendo de como modifica la energía interna del sistema en el que es introducida. La aplicación de los conceptos del potencial químico en sistemas cuyas temperaturas se encuentran cerca del cero absoluto ha arrojado una gran cantidad de resultados novedosos, atrayendo la atención de muchos investigadores debido a las posibles aplicaciones tecnológicas.
Para sistemas relativistas, es decir, sistemas en los cuales la masa invariante[
4] es mucho menor que la energía térmica equivalente, solamente se asigna potencial químico a aquellas partículas cuyo número no varía con el tiempo. Así, el potencial químico de los fotones, cuyo número fluctúa con el tiempo incluso en un sistema cerrado en equilibrio térmico, es cero.[5] De forma similar, el potencial químico de los fonones, modo cuantizado de vibración que tiene lugar en redes cristalinas, también es cero.[6] Un sistema formado por gluones y quarks es el principal ejemplo de un sistema en el que aparecen muchos de esos potenciales químicos. De hecho, los seis sabores (o tipos) de quarks tienen potenciales químicos independientes. Las condiciones iniciales del sistema determinan el valor de estos potenciales químicos.

Equilibrio de Fases[editar]

El desarrollo del equilibrio de fases se puede predecir mediante el potencial químico. Un equilibrio de fases implica la misma sustancia química presente en diferentes fases [por ejemplo, C6H12O6(s) ↔ C6H12O6(ac)]. La condición de equilibrio en un sistema cerrado en el que solo se efectúa trabajo presión-volumen (P-V) viene dada por la ecuación:

\sum_{\alpha}\sum_{i} \mu_{i}^\alpha dn_{i}^\alpha =0

Donde α denota la fase, μ el potencial químico, n los moles de sustancia química y j la sustancia química en cuestión. Suponiendo que en un sistema de dos fases, dnj moles de una sustancia j fluyen de la fase β a la fase δ. Debido a que el flujo va de β a δ tenemos que dnβj=-dnj y dnδj=dnj. Además suponemos que dnj≠0. Considerando las últimas dos relaciones obtenemos que:

\mu_{j}^\beta = \mu_{j}^\delta

Esto significa que en un sistema cerrado en equilibrio térmico y mecánico con trabajo P-V solamente, la condición de equilibrio de fases es que el potencial químico sea el mismo en cada fase del sistema.
Ahora supongamos que el sistema aún no ha llegado al equilibrio. Supongamos que dnj moles de la sustancia j fluyen de forma espontánea de la fase β a la fase δ. Para ese proceso irreversible tenemos dos ecuaciones:

dG < -SdT + VdP

dG = -SdT + VdP + \sum_{\alpha}\sum_{i} \mu_{i}^\alpha dn_{i}^\alpha

Calculando la diferencia de las dos últimas ecuaciones obtenemos:

(\mu_{j}^\delta - \mu_{j}^\beta)dn_{j} < 0

Ya que dnj es positivo, la diferencia de potenciales químicos debe ser negativa: μδj < μβj. Por lo tanto queda demostrado que:

La sustancia j fluye espontáneamente de la fase con potencial químico mayor a la fase con menor potencial químico.

El razonamiento anterior es válido para un número n de fases. Este flujo ocurrirá hasta que el potencial químico de la sustancia j sea igual en todas las fases del sistema. Del mismo modo que la diferencia de temperatura es la fuerza impulsora del flujo de calor entre dos fases, la diferencia de potencial químico es la fuerza que impulsa el flujo de una especie química entre dos fases. El resultado principal de este razonamiento es:

En un sistema cerrado en equilibrio termodinámico, el potencial químico de cualquier sustancia dada es el mismo en todas las fases en las que la sustancia está presente
LA SIMBIOSIS DEL CUERPO HUMANO CON LAS COSECHAS DE LOS FRUTOS Y VEGETALES DE LA RUTA DE LAS ESPECIES. UNA UBICACIÓN DEL CONOCIMIENTO DE LOS SUKIAS DEL DUCADO DE VERAGUA PARA SANAR LOS PADECIMIENTOS .HUMANOS///.
el género humano tiene 25 MILLONES de pares geneticoss, mientras que las especies vegetales pasan de los 30000 millones de pares genéticos . Es por ello que el ser humano depende de esa información genética para poder sobrevivir. De esta manera necesitamos establecer las simbiosis entre ambos reinos. Las plantas nos curan y nosotros las sembramos para que se multipliquen.El cuerpo humano enferma cuando no consigue las sustancias que necesita y las enfermedades quedan descritas por el conocimiento de la observación chamánica en un principio, y la médica en la actualidad.El genoma humano es el genoma del Homo sapiens, es decir, la secuencia de ADN contenida en 23 pares de cromosomas en el núcleo de cada célula humana diploide.
De los 23 pares, 22 son cromosomas autosómicos y un par determinante del sexo (dos cromosomas X en mujeres y uno X y uno Y en varones). El genoma haploide (es decir, con una sola representación de cada par) tiene una longitud total aproximada de 3200 millones de pares de bases de ADN (3200 Mb) que contienen unos 20 000-25 000 genes[1] (las estimaciones más recientes apuntan a unos 20 500). De las 3200 Mb unas 2950 Mb corresponden a eucromatina y unas 250 Mb a heterocromatina. El Proyecto Genoma Humano produjo una secuencia de referencia del genoma humano eucromático, usado en todo el mundo en las ciencias biomédicas.
En biología, se denomina plantas a los seres vivos fotosintéticos, sin capacidad locomotora y cuyas paredes celulares se componen principalmente de celulosa.[
1]Taxonómicamente están agrupadas en el reino Plantae y como tal constituyen un grupo monofilético eucariota conformado por las plantas terrestres y las algas que se relacionan con ellas, sin embargo, no hay un acuerdo entre los autores en la delimitación exacta de este reino.
En su circunscripción más restringida, el reino Plantae (del latín: plantae, “plantas”) se refiere al grupo de las plantas terrestres, que son los organismos eucariotas multicelulares fotosintéticos descendientes de las primeras algas verdes que lograron colonizar la superficie terrestre y son lo que más comúnmente llamamos “planta”. En su circunscripción más amplia, se refiere a los descendientes de Primoplantae, lo que involucra la aparición del primer organismo eucariota fotosintético por adquisición de los primeros cloroplastos.
Obtienen la energía de la luz del Sol que captan a través de la clorofila presente en sus cloroplastos, y con ella realizan la fotosíntesis en la que convierten simples sustancias inorgánicas en materia orgánica compleja. Como resultado de la fotosíntesis desechan oxígeno (aunque, al igual que los animales, también lo necesitan para respirar). También exploran el medio ambiente que las rodea (normalmente a través de raíces) para absorber otros nutrientes esenciales utilizados para construir, a partir de los productos de la fotosíntesis, otras moléculas que necesitan para subsistir.
A diferencia de los humanos que poseen un “ciclo de vida diplonte” (solo los gametos son haplontes), las plantas poseen alternancia de generaciones determinada por un “ciclo de vida haplo-diplonte” (el “óvulo” y el “anterozoide” se desarrollan asexualmente hasta ser multicelulares, aunque en muchas plantas son pequeños y están enmascarados por estructuras del estadio diplonte). En general las “plantas terrestres” tal como normalmente las reconocemos, son solo el estadio diplonte de su ciclo de vida. En su estadio diplonte, las plantas presentan células de tipo “célula vegetal” (principalmente con una pared celular rígida y cloroplastos donde ocurre la fotosíntesis), estando sus células agrupadas en tejidos y órganos con especialización del trabajo. Los órganos que pueden poseer son, por ejemplo, raíz, tallo y hojas, y en algunos grupos, flores y frutos.
La importancia que poseen las plantas para el hombre es indiscutible. Sin ellas no podríamos vivir, ya que las plantas delinearon la composición de los gases presentes en la atmósfera terrestre y en los ecosistemas, son la fuente primaria de alimento para los organismos heterótrofos. Además, las plantas poseen importancia para el hombre de forma directa: como fuente de alimento; como materiales para construcción, leña y papel; como ornamentales; como sustancias que empeoran o mejoran la salud y que por lo tanto tienen importancia médica; y como consecuencia de lo último, como materia prima de la industria farmacológica.

Índice de sustancias.

[ocultar] La secuencia de ADN que conforma el genoma humano contiene codificada la información necesaria para la expresión, altamente coordinada y adaptable al ambiente, del proteoma humano, es decir, del conjunto de las proteínas del ser humano. Las proteínas, y no el ADN, son las principales biomoléculas efectoras; poseen funciones estructurales, enzimáticas, metabólicas, reguladoras, señalizadoras…, organizándose en enormes redes funcionales de interacciones. En definitiva, el proteoma fundamenta la particular morfología y funcionalidad de cada célula. Asimismo, la organización estructural y funcional de las distintas células conforma cada tejido y cada órgano, y, finalmente, el organismo vivo en su conjunto. Así, el genoma humano contiene la información básica necesaria para el desarrollo físico de un ser humano completo.
El genoma humano presenta una densidad de genes muy inferior a la que inicialmente se había predicho, con sólo en torno al 1.5 %[
2] de su longitud compuesta por exones codificantes de proteínas. Un 70 % está compuesto por ADN extragénico y un 30 % por secuencias relacionadas con genes. Del total de ADN extragénico, aproximadamente un 70 % corresponde a repeticiones dispersas, de manera que, más o menos, la mitad del genoma humano corresponde a secuencias repetitivas de ADN. Por su parte, del total de ADN relacionado con genes se estima que el 95 % corresponde a ADN no codificante: pseudogenes, fragmentos de genes, intrones o secuencias UTR, entre otros.
En el genoma humano se detectan más de 280 000 elementos reguladores, aproximadamente un total de 7Mb de secuencia, que se originaron por medio de inserciones de elementos móviles. Estas regiones reguladoras se conservan en elementos no exónicos (CNEEs),fueron nombrados como: SINE, LINE, LTR. Se sabe que al menos entre un 11 % y un 20 % de estas secuencias reguladoras de genes, que están conservadas entre especies, fue formado por elementos móviles.
El proyecto genoma humano, que se inició en el año 1990, tuvo como propósito descifrar el código genético contenido en los 23 pares de cromosomas, en su totalidad. En 2005 se dio por finalizado este estudio llegando a secuenciarse aproximadamente 28 000 genes.
La función de la gran mayoría de las bases del genoma humano es desconocida. El Proyecto ENCODE (acrónimo de ENCyclopedia Of DNA Elements) ha trazado regiones de transcripción, asociación a factores de transcripción, estructura de la cromatina y modificación de las histonas. Estos datos han permitido asignar funciones bioquímicas para el 80 % del genoma, principalmente, fuera de los exones codificantes de proteínas. El proyecto ENCODE proporciona nuevos conocimientos sobre la organización y la regulación de los genes y el genoma, y un recurso importante para el estudio de la biología humana y las enfermedades.En cuanto a la estructura bioquímica, el ADN vegetal y animal no tienen diferencias. Poseen 2 cadenas de nucleótidos helicoidales con giros hacia la derecha, bases nitrogenadas complementarias (A – T, C – G) iguales. Ámbos de naturaleza histónica porque forman cromatina. La diferencia entre ámbos radica en la Información biológica (el ADN vegetal lleva como información todo lo que corresponde al Cormo vegetativo: tipo de raíz, tallo, hojas, flores, frutos, ramificaciones del tallo, etc.), en cambio el ADN animal lleva información animal (tipos de células, grupos sanguíneos, cabellos, anexos tegumentarios como pelos, placas, escamas, escudos, plumas, etc., color y forma de ojos, etc.).
En cuanto al número de Nucleótidos, depende del tipo vegetal y animal que se comparen, por ejemplo si comparas el ADN de un organismo unicelular vegetal con
Contenido en genes y tamaño del genoma de varios organismos[
3]La Bioquímica inducida por el medio ambiente, a lo largo del recorrido solar sobre la Ruta de las Especies. Las espectativas sobre su afectación sobre nuestr organismo.
ESPECIES EN LA RUTA. EL CAFÉ, TÉ, GUARAMÁ,CHOCOLATE, YERBA MATE,NUEZ DE COLA, AJO, CEBOLLA. FORMACIÓN Y BIOQUÍMICA. Sin duda alguna, los componentes bioquímicos de estas especies, están formados por la incidencia solar, además de las condiciones climáticas. Estas son el resultado de la geografía donde se producen. Trataremos aquí de descubrir estas incidencias y su relación con el comportamiento de presión del ambiente, para crear genes reproductores de estas sustancias, las que a su vez, inciden sobre la salud del reino animal y proliferación de los insectos. Siguiendo la Ruta de las Especies, en las zonas de producción , y coincidiendo con la época de las cosechas de las mismas, encontramos que es la misma que sigue el Zenit Solar Diario, al trasladarse sobre le CÍRCULO ECLÍPTICO. Zenit que se desplaza ,dando las estaciones climáticas a lo largo de todo un año. Conforme el zenit del sol avanza ,la zona va calentándose dando las estaciones de primavera,verano y otoño se desplazan, conociéndose como zona caliente. Detrás de ella va quedando la zona fría , otoño, invierno, y parte de la primavera. La zona caliente produce las cosechas de las especies. La zona fría, destruye procesando y abonando los residuos de las cosechas. Es el período de la destrucción-renovación. Este ciclo eclíptico comienza enel cruce del círculo equinoccial -MERIDIANO DE GREENWISH,PRIMER MERIDIANO, con el círculo Eclíptico ´, sobre el círculo ecuatorial , en el punto de 180°Oeste-Este, en el Océano Pacífico, entre el mar de Micronesia y el mar de Polinesia, cerca de la isla Howland, en la interfase del 25 de septiembre.Estas condiciones dan que el SOLSTICIO de verano se de en el hemisferio Sur el 21 de diciembre, siendo el VERANO. EL CÍRCULO EQUINOCCIAL, se cruza con el Círculo de la ECLÍPTICA, sobre el Círculo Ecuatorial, en el Golfo de Guinea, cerca de la Isla Bonnobons, frente a Guinea,dando 0° Ecuador,0° equinocciales,0° Eclíptica,resultando ser la Primavera del Hemisferio Norte, el 21 de marzo. El Solsticio de verano en el hemisferio norte, se da , en las cercanías que están sobre la ciudad de DACCA en Bangla Desh, el 21 de junio.En las especies arriba indicadas encontramos productos bioquímicos comunes, las cuales se van produciendo conforme se cosechan alrededor del CÍRCULO DE LA ECLÍPTICA. Entre ellos, LA CAFEINA. C8H10N4O2, familia metilxantinas, compuestos de teofilina, teobromina. Grupos que la forman son: 1,3,7- trimetilxantina. 1-3-7-trimetil-2,6-dioxopurina. y 3,7-dihidro-1-3-7-trimetil-1H-purina-2-6-diona. Su nombre. trimetilxantina,teina,mateina, guaranina, metilteobromina-metilteofilina. Estas denominaciones SE APLICAN A el cacao,café, té, guaramá,yerba mate, nuez de cola, ajo, cebolla, para la cafeina y su ácido cafeico. Su densidad es de 1.23 mg/ml. El punto de fusión es de 237° c .Eflorece con el aire. Cristaliza a prismas hexagonales.Es soluble en agua. Sublima a los 176°C.Es soluble a los 100°C. Su transformación metabólica para la cafeina es: a-hidratación: ácido trimetilhidroúrico–6-amino-5-N-metilformilano-1,3.dimeditl uracilo. b- por oxidación obtenemos el ácido trimetilúrico. La cafeina se presenta en 3 estados como. teofilina,teobromina,panaxantina. La teofilina pasa a ácido dimetildihidroúrico y luego aminometiluracilo. La panaxantina y ácido monometilúrico. Una vez ingerida por el cuerpo humano,esta es sintetizada por la isoenzimina del citocromo P450( CYP ) hepático, subfamilia 1 A, GEN 2 DEL CYP1A2 metaboliza por desmetilación, transformándola en paraxantina , la cual incrementa la LIPÓLISIS de niveles de glicerol y ácidos GRASOS LIBRES EN EL PLASMA SANGUÍNEO.tAMBIÉN SE SINTETIZA EN FORMA DE TEOBROMINA, LA CUAL DILATA A LOS VASOS SANGUÍNEOS DE LA ORINA. La teofilina relaja el músculo liso de los bronquios, por loque se utiliza en el tratamiento del asma. También es metabolizada por el gen CYP1A2 monoxantinas que forman el sustrato de la XANTINAOXIDSA. La N- acetiltranferasa-2 metaboliza a la paraxantina en AFMU,o sea. 5acetilamina-6-formilamino-3-metiluracilo. Otras encimas son CYP2E1 . isoenzima del citocromo P450 subfamilia 2E,GEN 1 y CYP3A3. La isoenzima del cito cromo P450, subfamilia 2A,GEN3.Por lo tanto La Cafeina se considera el substrato ptototipo y marcador del FENOTIOI METABOLIZADOR DEL CYP1A2 EN EL PLASMA DE LA SALIVA. También intervienen en las membranas celulares del sistema nervioso central y sistema nervioso periférico por la acción de la ADENOSINA como regulador en la entrega de oxígeno a las células y dilatar los vasos sanguíneos celulares y coronarios. Inhibe la liberación de neurotransmisores como la noradrenalina dopamina, acetilocolina,glucomato y GABA. De esta manera estamos explicando como el sol, al inicir sobre la superficie terrestre, dentro de las condiciones para darse las cuatro estaciones , va a inducir el calientamiento en las ISOTERMAS REGIONALES,y estas van a dosificar a las lluvias. Esta a su vez , van a mantener las humeddes del suelo estacionalque va a nutrir a las especies. Estas especies van a concentrar sustancias que nos van a alimentar , y por fin , van a causar diversas comportamientos en nuestros organismos. Estos comportamientos son los que finalmente dan las diferentes especies: vegetales, insectos, animales. Comportamientos humanos, de trabajo, cultura, economía y relaciones internacionales, todo a través de la RUTA DE LAS ESPECIES.El café cumple con el sistema C.H.O.N.S. teniendo compuestos nitrogenados. 1.Proteinas. 2Aminoácidos. 3. TRIGONELINA 4.-Alcaloides. La -3- se descompone en ácido nicotánico, piridina. ACIDOS CLOROGÉNICOS : Acido quínico settransforma en ácidos clorogénicos. ACIDOS CARBOXÍLICOS : Acido alopático : ácido cítrico , ácido málico, ácido quínico. LÍPIDOS: diterpenos , Kahueoles, Cafestoles. El café contiene más de 2000 sustacias químicas.Entre ellos la cafeina, minerales, tridomelinas, aminoácidos como las proteinas,ácidos alifáticos,glicósidos,carbohidratos.ACEITE DE CAFÉ. Está compuesto por ácidos grasosendosperma,cera linoseo,palmítico, esteroso, 24- metilnecolesterol, avenanasterol5-hidrolitriptaminas, 20-hidroxiaraquilonico, behini, linosérico,triglicéridos.ácidos grasos libres, esteres diterplenos=ácidos grasos libres,ésteres.diterpenos. ácidos grasos libres,ésteres diterpenos,plamícos,y limoleas. Tirpentenos.co
pKa es la fuerza que tienen las moléculas de disociarse (es el logaritmo negativo de la constante de disociación ácida de un ácido débil).
\mbox{p}K_a = - \log K_a \,Una forma conveniente de expresar la relativa fortaleza de un ácido es mediante el valor de su pKa, que permite ver de una manera sencilla en cambios pequeños de pKa los cambios asociados a variaciones grandes de Ka. Valores pequeños de pKa equivalen a valores grandes de Ka (constante de disociación) y, a medida que el pKa decrece, la fortaleza del ácido aumenta.
Un ácido será más fuerte cuanto menor es su pKa y en una base ocurre al revés, que es más fuerte cuanto mayor es su pKa.
Esas constantes de disociación no son fijas, dependen de otras variables. Por ejemplo, la constante de disociación cambia a temperaturas diferentes. Sin embargo, mantiene su valor a la misma temperatura, ante cambios de la concentración de alguna de las especies o incluso ante la acción de un catalizador.

Valores de pKa[editar]

Principales constantes de disociación a 25 °C

Ácido Fórmula pKa1 pKa2 pKa3
Ácido acético CH3-COOH 4,757
Ácido aspártico HO2CCH(NH2)CH2CO2H 1,990 3,900 10,002
Ácido benzoico C6H5-COOH 4,202
Ácido butanoico CH3-CH2-CH2-COOH 4,819
Ácido maleico 1,910 6,332
Catión amonio NH4+ 9,3

El pKa también fue definido por los científicos

Anuncios
Esta entrada fue publicada en Uncategorized. Guarda el enlace permanente.

10 respuestas a LA GRAVEDAD EN FUNSIÓN DE LA BIOQUÍMICA DE LOS VEGETALES. EL COMPORTAMIENTO DE LAS EXTRUCTURAS CON EL CENIT SOLAR.

  1. En física moderna, el fotón (en griego φῶς phōs (gen. φωτός) ‘luz’, y -ón) es la partícula elemental responsable de las manifestaciones cuánticas del fenómeno electromagnético. Es la partícula portadora de todas las formas de radiación electromagnética, incluyendo los rayos gamma, los rayos X, la luz ultravioleta, la luz visible (espectro electromagnético), la luz infrarroja, las microondas y las ondas de radio. El fotón tiene una masa invariante cero,Nota 1 y viaja en el vacío con una velocidad constante c. Como todos los cuantos, el fotón presenta tanto propiedades corpusculares como ondulatorias (“dualidad onda-corpúsculo”). Se comporta como una onda en fenómenos como la refracción que tiene lugar en una lente, o en la cancelación por interferencia destructiva de ondas reflejadas; sin embargo, se comporta como una partícula cuando interactúa con la materia para transferir una cantidad fija de energía, que viene dada por la expresión.

    E = \frac{h c}{\lambda} = h\nu

    donde h es la constante de Planck, c es la velocidad de la luz y \lambda es la longitud de onda y \nu la frecuencia de la onda. Esto difiere de lo que ocurre con las ondas clásicas, que pueden ganar o perder cantidades arbitrarias de energía. Para la luz visible, la energía portada por un fotón es de alrededor de 4×10–19 julios; esta energía es suficiente para excitar un ojo y dar lugar a la visión.1

    Además de energía, los fotones llevan también asociado un momento lineal y tienen una polarización. Siguen las leyes de la mecánica cuántica, lo que significa que a menudo estas propiedades no tienen un valor bien definido para un fotón dado. En su lugar se habla de las probabilidades de que tenga una cierta polarización, posición o momento lineal. Por ejemplo, aunque un fotón puede excitar una molécula, a menudo es imposible predecir cuál será la molécula excitada.

    La descripción anterior de un fotón como un portador de radiación electromagnética es utilizada con frecuencia por los físicos. Sin embargo, en física teórica, un fotón puede considerarse como un mediador para cualquier tipo de interacción electromagnética.

    La discusión sobre la naturaleza de la luz se remonta hasta la antigüedad. En el siglo XVII, Newton se inclinó por una interpretación corpuscular de la luz, mientras que sus contemporáneos Huygens y Hooke apoyaron la hipótesis de la luz como onda. Experimentos de interferencia, como el realizado por Young en el siglo XIX, confirmaron el modelo ondulatorio de la luz.

    La idea de la luz como partícula retornó con el concepto moderno de fotón, que fue desarrollado gradualmente entre 1905 y 1917 por Albert Einstein2 3 4 5 apoyándose en trabajos anteriores de Planck, en los cuales se introdujo el concepto de cuanto. Con el modelo de fotón podían explicarse observaciones experimentales que no encajaban con el modelo ondulatorio clásico de la luz. En particular, explicaba cómo la energía de la luz dependía de la frecuencia (dependencia observada en el efecto fotoeléctrico) y la capacidad de la materia y la radiación electromagnética para permanecer en equilibrio térmico.

    Otros físicos trataron de explicar las observaciones anómalas mediante modelos “semiclásicos”, en los que la luz era descrita todavía mediante las ecuaciones de Maxwell, aunque los objetos materiales que emitían y absorbían luz estaban cuantizados. Aunque estos modelos semiclásicos contribuyeron al desarrollo de la mecánica cuántica, experimentos posteriores han probado las hipótesis de Einstein sobre la cuantización de la luz (los cuantos de luz son los fotones).

    El concepto de fotón ha llevado a avances muy importantes en física teórica y experimental, tales como la teoría cuántica de campos, el condensado de Bose-Einstein y la interpretación probabilística de la mecánica cuántica, y a inventos como el láser.

    De acuerdo con el modelo estándar de física de partículas los fotones son los responsables de producir todos los campos eléctricos y magnéticos, y a su vez son el resultado de que las leyes físicas tengan cierta simetría en todos los puntos del espacio-tiempo. Las propiedades intrínsecas de los fotones (masa invariante y espín) están determinadas por las propiedades de la simetría de Gauge.

    Los fotones se aplican a muchas áreas, como la fotoquímica, el microscopio fotónico y la medición de distancias moleculares. Incluso se los ha estudiado como componentes de computadoras cuánticas y en aplicaciones sofisticadas de comunicación óptica como por ejemplo en criptografía cuántica

  2. LA LUZ Y SUS EFECTOS SOBRE LOS VEGETALES Y SU FOTOSÍNTESIS, DE ACUERDO CON LA VARIACIÓN DEL HORARIO DIARIO PASANDO POR EL CENIT Y LA TRAYECTORIA ANALEMA DE LA LÍENEA ECLÍPTICA AL PASAR DE UN SOLSTISIO-EQUINOCCIO-SOLSTICIO-EQUINOCIO, REFEJADO EN LAS ESFERAS DEL DIQUIS Y QUEPOSEstos grupos amerindios, muy posteriores a los “Dikís” jamás intentaron siquiera duplicar los mencionados monolitos esféricos. Aparentemente el método de fabricarlas se perdió con la cultura que las hizo.
    Guayabo de Turrialba, uno de los más importantes sitios arqueológicos del país fue abandonado por sus pobladores 100 años antes de la llegada de los españoles. Su nombre también se esfumó con ellos. Parece ser que nuestros enigmáticos “Dikís” desaparecieron mucho antes de esa datación.
    cultura. De otra forma jamás conoceremos el propósito original de las esferas.
    Image7062.jpg
    El trabajo colectivo como base de comprensión
    En el fondo lo que distingue universalmente a los “Dikís” no son las esferas pétreas, que hicieron con tan sorprendente maestría, sino cómo, bajo cuál atmósfera social y con qué instrumentos de trabajo las lograron.
    Los expertos deberán avocarse a una disertación profunda de los procesos de trabajo involucrados

  3. …VIII PARTE …DE PAPIROS,PERGAMINOS Y PAPELES…UNA HISTORIA QUE NOS ALCANZA

  4. El objeto de la cinética química es medir la rapidez de las reacciones químicas y encontrar ecuaciones que relacionen la rapidez de una reacción con variables experimentales.

    Se encuentra experimentalmente que la rapidez de una reacción depende mayormente de la temperatura y las concentraciones de las especies involucradas en la reacción. En las reacciones simples, sólo la concentración de los reactivos afecta la rapidez de reacción junto con la temperatura, pero en reacciones más complejas la rapidez también puede depender de la concentración de uno o más productos. La presencia de un catalizador también afecta la rapidez de reacción. Del estudio de la rapidez de una reacción y su dependencia con todos estos factores se puede saber mucho acerca de los pasos en detalle para ir de reactivos a productos. Esto último es el mecanismo de reacción.

    Las reacciones se pueden clasificar cinéticamente en homogéneas y heterogéneas. La primera ocurre en una fase y la segunda en más de una fase. La reacción heterogénea depende del área de una superficie ya sea la de las paredes del vaso o de un catalizador sólido. En este capítulo se discuten reacciones homogéneas.

    Véanse también: teoría de las colisiones y Constante de velocidad.La rapidez de reacción está conformada por la rapidez de formación y la rapidez de descomposición. Esta rapidez no es constante y depende de varios factores, como la concentración de los reactivos, la presencia de un catalizador, la temperatura de reacción y el estado físico de los reactivos.

    Uno de los factores más importantes es la concentración de los reactivos. Cuanto más partículas existan en un volumen, más colisiones hay entre las partículas por unidad de tiempo. Al principio, cuando la concentración de reactivos es mayor, también es mayor la probabilidad de que se den colisiones entre las moléculas, y la rapidez es mayor. A medida que la reacción avanza, al ir disminuyendo la concentración de los reactivos, disminuye la probabilidad de colisión y con ella la rapidez de la reacción. La medida de la rapidez de reacción implica la medida de la concentración de uno de los reactivos o productos a lo largo del tiempo, esto es, para medir la rapidez de una reacción necesitamos medir, bien la cantidad de reactivo que desaparece por unidad de tiempo, o bien la cantidad de producto que aparece por unidad de tiempo. La rapidez de reacción se mide en unidades de concentración/tiempo, esto es, en (mol/l)/s, es decir, moles/(l·s).

    Para una reacción de la forma:
    \mathrm{A \ \longrightarrow \ B + C}
    la ley de la rapidez de formación es la siguiente:
    v_R = – \frac{\Delta c_{\mathrm{A}}}{\Delta t}
    v_R es la rapidez de la reacción, (- \Delta c_{\mathrm{A}}) la disminución de la concentración del reactivo A en el tiempo \Delta t. Esta rapidez es la rapidez media de la reacción, pues todas las moléculas necesitan tiempos distintos para reaccionar.

    La rapidez de aparición del producto es igual a la rapidez de desaparición del reactivo. De este modo, la ley de la rapidez se puede escribir de la siguiente forma:
    v_R = – \frac{\Delta c_{\mathrm{A}}}{\Delta t} = \frac{\Delta c_{\mathrm{B}}}{\Delta t} = \frac{\Delta c_{\mathrm{C}}}{\Delta t}
    Este modelo necesita otras simplificaciones con respecto a:
    la actividad química, es decir, la “concentración efectiva”
    la cantidad de los reactivos en proporción a la cantidad de los productos y del disolvente
    la temperatura
    la energía de colisión
    presencia de catalizadores
    la presión parcial de gases

    Orden de reacción[editar]

    Para cada reacción se puede formular una ecuación, la cual describe cuantas partículas del reactivo reaccionan entre ellas, para formar una cantidad de partículas del producto.

    Para una reacción de la forma:
    \mathrm{2 \, A + B + C + D \ \longrightarrow \ E}
    esto significa, que dos partículas A colisionan con una partícula B, una partícula C y una partícula D para formar el producto E.

    Sin embargo, la probabilidad de que cinco partículas colisionen al mismo tiempo y con energía suficiente, es escasa.

    Más probable es que dos o tres partículas colisionen y formen un producto intermedio, este producto intermedio colisiona con las demás partículas y forma otros productos intermedios hasta formar el producto E, aquí un ejemplo:
    \mathrm{2 \, A \ \longrightarrow \ A_2}\mathrm{A_2 + B + C \ \longrightarrow \ A_2BC}\mathrm{A_2BC + D \ \longrightarrow \ E}
    La descomposición de la reacción principal en llamadas reacciones elementales y el análisis de estas nos muestra exactamente como ocurre esta reacción.

    Por medio de métodos experimentales o por premisas se puede determinar la dependencia de la rapidez de las reacciones elementales con las concentraciones de los componentes A, B, C y D.

    El orden de reacción está definido como la suma de los exponentes de las concentraciones en la ley de la rapidez de la reacción. Este es también llamado orden total de reacción, pues el orden depende del reactivo que se analice. El orden de la reacciones se determina experimentalmente.

    Ejemplo :

    Suponiendo que la rapidez de reacción de la primera reacción elemental tiene una dependencia cuadrática con la concentración del reactivo A, esto significa que esta reacción es de segundo orden con respecto al reactivo A. El orden total de esta reacción es también segundo, pues no hay otros reactivos.

    Suponiendo que la rapidez de reacción de la segunda reacción elemental tenga una dependencia lineal con la concentración del reactivo A2, lineal con la concentración del reactivo B y ninguna dependencia con C. Entonces es la reacción de primer orden en relación a A2, de primer orden en relación a B y de cero orden en relación al componente C. El orden total es segundo.

    Suponiendo que la rapidez de reacción de la tercera reacción elemental tenga una dependencia lineal con la concentración de A2BC, pero ninguna con la concentración de D, entonces es la reacción de primer orden en relación a A2BC y de orden cero en relación a D. El orden total de la reacción es primero.

    Para una reacción hipotética de la forma:

    aA + bB \longrightarrow gG + hH

    la rapidez de reacción se define como la siguiente expresión en caso de que sea una reacción simple molecular, como la del caso anterior:

    v=k[A]α[B]β

    (las concentraciones de reactivos están elevados a su correspondiente coeficiente cinético sólo en el caso en el que la reacción sea elemental). Donde los corchetes denotan la concentración de cada una de las especies; “v” denota la rapidez de reacción y “k” es la constante cinética. La rapidez de las reacciones químicas

  5. La gravedad y La luz sobre las hojas, acelera lasPresión[editar]

    En una reacción química, si existe una mayor presión en el sistema, ésta va a variar la energía cinética de las moléculas. Entonces, si existe una mayor presión, la energía cinética de las partículas va a aumentar y la reacción se va a volver más rápida; al igual que en los gases, que al aumentar su presión aumenta también el movimiento de sus partículas y, por tanto, la rapidez de reacción es mayor. Esto es válido solamente en aquellas reacciones químicas cuyos reactantes sean afectados de manera importante por la presión, como los gases. En reacciones cuyos reactantes sean sólidos o líquidos, los efectos de la presión son ínfimos.

    Luz[editar]

    La luz es una forma de energía. Algunas reacciones, al ser iluminadas, se producen más rápidamente, como ocurre en el caso de la reacción entre el cloro y el hidrógeno. En general, la luz arranca electrones de algunos átomos formando iones, con lo que aumenta considerablemente la rapidez de reacción.

    Véase también: Principio de Le Châtelier

    Energía de activación[editar]

    En 1888, el químico sueco Svante Arrhenius sugirió que las moléculas deben poseer una cantidad mínima de energía para reaccionar. Esa energía proviene de la energía cinética de las moléculas que colisionan. La energía cinética sirve para originar las reacciones, pero si las moléculas se mueven muy lento, las moléculas solo rebotarán al chocar con otras moléculas y la reacción no sucede.

    Para que reaccionen las moléculas, éstas deben tener una energía cinética total que sea igual o mayor que cierto valor mínimo de energía llamado energía de activación (Ea). Una colisión con energía Ea o mayor, consigue que los átomos de las moléculas alcancen el estado de transición. Pero para que se lleve a cabo la reacción es necesario también que las moléculas estén orientadas correctamente.

    La constante de la rapidez de una reacción (k) depende también de la temperatura ya que la energía cinética depende de ella. La relación entre k y la temperatura está dada por la ecuación de Arrhenius:

    k = Ae^{(-E_a/RT)}

    o, también, expresada en forma de logaritmos neperianos:

    \ln k = \ln A – \frac{E_a}{RT} \,\!

    Donde A es el factor de frecuencia de la materia prima con la presión
    reacciones que se producen durante el proceso de la fotosíntesis

  6. Polimerización de la Lignina. Un Consecuencia del Efecto Solar Eclíptico.

    Publicado el octubre 29, 2014 de santarosapapelbanano
    POLIMERIZACIÓN DE LA LIGNINA. UNA CONSECUENCIA DEL EFECTO SOLAR ECLIPTICO. LA INFLUENCIA DE LOS ÁNGULOS DEL RECORRIDO DEL EQUINOCCIO Y DEL SOLSTICIO SOBRE LA ANGULACIÓN DE LOS ENLACES QUÍMICOS COVALENTES. by santarosapapelbanano La lignina es un polímero presente en las … Sigue leyendo →

    Publicado en Uncategorized | 1 comentario | Editar

    APUNTES SOLARES Y SUS EFECTOS MEDICINALES.

    Publicado el octubre 29, 2014 de santarosapapelbanano
    APUNTES SOLARES ESCRITOS SOBRE EL PLANO X,Y Y SU TRAYECTOREA ELÍPTICA SOBRE EL CENIT EN SU RECORRIDO ENTRE LOS SOLSTICIOS Y EQUINOCCIOS ANUALES. UNA MANERA DE CREAR MOLÉCULAS ACTIVAS BIOQUÍMICAS ALMACENADAS EN LOS FRUTOS DE LAS COSECHAS DE LAS

  7. Pingback: INDICE N-12. PAPELES NATURALES | Convirtiendonos en consumidores conscientes

  8. Pingback: INDICE N-13-LOS EFECTOS SOLARES SOBRE LA RUTADE LAS ESPECIES.LAS PIEDRAS REDONDAS DEL DIQUÍS | Convirtiendonos en consumidores conscientes

  9. Pingback: INDICE N-16. ANTROPOLOGIA VEGETAL. | Convirtiendonos en consumidores conscientes

  10. Pingback: PRÓLOGO AL ÍNDICE N-16. ANTROPOLOGÍA VEGETAL. | Convirtiendonos en consumidores conscientes

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s