2014-08-25

domino

2014-06-28

simetría

2014-06-18

sistema de ecuaciones lineales

¿cuando un sistema de ecuaciones lineales es Compatible o Incompatible, Determinado o Indeterminado?

Compatible significa que tiene solución
Incompatible significa que no tiene solución (claro!)

Determinado significa que la solución es única
Indeterminado significa que la solución no es única

2014-05-27

Modified Richardson iteration


Modified Richardson iteration is an iterative method for solving a system of linear equationsRichardson iteration was proposed by Lewis Richardson in his work dated 1910. It is similar to the Jacobiand Gauss–Seidel method.
We seek the solution to a set of linear equations, expressed in matrix terms as
 A x = b.\,
The Richardson iteration is
 
x^{(k+1)}  = x^{(k)} + \omega \left( b - A x^{(k)} \right),
where ω is a scalar parameter that has to be chosen such that the sequence x(k) converges.
It is easy to see that the method is correct, because if it converges, then x^{(k+1)} \approx x^{(k)} and x(k) has to approximate a solution of Ax = b.


Convergence

Subtracting the exact solution x, and introducing the notation for the error e^{(k)} \approx x^{(k)}-x, we get the equality for the errors
e(k + 1) = e(k) − ωAe(k) = (I − ωA)e(k).
Thus,
 
\|e^{(k+1)}\| = \|(I-\omega A) e^{(k)}\|\leq  \|I-\omega A\| \|e^{(k)}\|,
for any vector norm and the corresponding induced matrix norm. Thus, if \|I-\omega A\|<1 the method convergences.
Suppose that A is diagonalizable and that j,vj) are the eigenvalues and eigenvectors of A. The error converges to 0 if | 1 − ωλj | < 1 for all eigenvalues λj. If, e.g., all eigenvalues are positive, this can be guaranteed if ω is chosen such that 0 < ω < 2 / λmax(A). The optimal choice, minimizing all | 1 − ωλj | , is ω = 2 / (λmin(A) + λmax(A)), which gives the simplest Chebyshev iteration.
If there are both positive and negative eigenvalues, the method will diverge for any ω if the initial error e(0) has nonzero components in the corresponding eigenvectors.


References

el núcleo y la imagen de un Aplicación lineal



Published on Apr 21, 2012
Ejemplo de como se calcula el núcleo y la imagen de un Aplicación lineal

2014-05-11

Cruithne



Cruithne no puede verse a simple vista. No solo es muy pequeño para ello, sino que se encuentra a una enorme distancia de la Tierra. En su aproximación máxima solo llega a unos 12 millones de kilómetros de nuestro planeta, unas 30 veces más lejos de lo que se encuentra la Luna. Un dato tranquilizador es que a pesar de lo compleja que es su trayectoria y su inestabilidad a largo plazo, los cálculos de Wiegart e Innanen demuestran que no impactará contra nosotros. O al menos, no durante un par de millones de años. Como decíamos, vista desde la Tierra su órbita se asemeja una herradura o un riñón, y realiza un cambio de ciclo cada 387 años. Está previsto que en julio de 2289 Cruithne realice una de sus máximas aproximaciones a la Tierra, tal como lo hizo en 1902.


Dentro del grupo de los Near-Earth asteroids hay al menos otros tres que poseen órbitas semejantes a la de Cruithne. Otros planetas, como Marte, también poseen objetos que los acompañan en trayectos co-órbitales, pero hasta donde sabemos, ninguno de ellos describe una trayectoria tan extraña como la de Cruithne.

2014-04-27

Inverse iteration


Inverse iteration

From Wikipedia, the free encyclopedia
In numerical analysisinverse iteration is an iterative eigenvalue algorithm. It allows to find an approximate eigenvector when an approximation to a corresponding eigenvalue is already known. The method is conceptually similar to the power method and is also known as the inverse power method.

Rayleigh quotient iteration


Rayleigh quotient iteration

From Wikipedia, the free encyclopedia
Rayleigh quotient iteration is an eigenvalue algorithm which extends the idea of the inverse iteration by using the Rayleigh quotient to obtain increasingly accurate eigenvalue estimates.
Rayleigh quotient iteration is an iterative method, that is, it must be repeated until it converges to an answer (this is true for all eigenvalue algorithms). Fortunately, very rapid convergence is guaranteed and no more than a few iterations are needed in practice. The Rayleigh quotient iteration algorithm converges cubically, given an initial vector that is sufficiently close to an eigenvector of thematrix that is being analyzed.

Lanczos algorithm


Lanczos algorithm

From Wikipedia, the free encyclopedia
The Lanczos algorithm is an iterative algorithm invented by Cornelius Lanczos that is an adaptation of power methods to findeigenvalues and eigenvectors of a square matrix or the singular value decomposition of a rectangular matrix. It is particularly useful for finding decompositions of very large sparse matrices. In Latent Semantic Indexing, for instance, matrices relating millions of documents to hundreds of thousands of terms must be reduced to singular-value form.
Peter Montgomery published in 1995 an algorithm, based on the Lanczos algorithm, for finding elements of the nullspace of a large sparse matrix over GF(2); since the set of people interested in large sparse matrices over finite fields and the set of people interested in large eigenvalue problems scarcely overlap, this is often also called the block Lanczos algorithm without causing unreasonable confusion. See Block Lanczos algorithm for nullspace of a matrix over a finite field.

Conjugate gradient method


Conjugate gradient method

From Wikipedia, the free encyclopedia

A comparison of the convergence ofgradient descent with optimal step size (in green) and conjugate gradient (in red) for minimizing a quadratic function associated with a given linear system. Conjugate gradient, assuming exact arithmetics, converges in at most n steps where n is the size of the matrix of the system (here n=2).
In mathematics, the conjugate gradient method is an algorithm for the numerical solution of particular systems of linear equations, namely those whose matrix issymmetric and positive-definite. The conjugate gradient method is an iterative method, so it can be applied to sparse systems that are too large to be handled by direct methods such as the Cholesky decomposition. Such systems often arise when numerically solvingpartial differential equations.
The conjugate gradient method can also be used to solve unconstrained optimizationproblems such as energy minimization.
The biconjugate gradient method provides a generalization to non-symmetric matrices. Various nonlinear conjugate gradient methods seek minima of nonlinear equations.

2014-04-22

operador

  5 ! 2 = 37
  6 ! 4 = 210
  7 ! 6 = 113
  8 ! 5 = 313
  9 ! 2 = 711
  9 ! 8 = 117
10 ! 6 = 416
15 ! 3 = 1218

2014-02-18

los perros callejeros de Moscú



PERROS QUE SE DESPLAZAN SOLOS EN METRO PARA “CAZAR” INCAUTOS


Científicos rusos han estudiado a los perros callejeros de Moscú y su evolución desde la caída del comunismo. Estos animales han demostrado una capacidad de adaptación al medio y a las nuevas circunstancias que supera en muchos casos con creces a la de los humanos.

Una de las habilidades desarrollada por estos canes es su costumbre de coger el metro por las mañanas para llegar al centro de Moscú y volver a cogerlo por la noche para volver a sus hogares. En el centro de la ciudad se pueden obtener fácilmente alimentos, pero no dormir con comodidad.

Saben exactamente dónde y cuándo subir, observándose, incluso, que suelen escoger los vagones con menos gente (el primero y el último generalmente), algo que, según Eugene Linden, exige razonamiento y pensamiento consciente. Son, además, capaces de no perder su parada, gracias a su excelente sentido del tiempo que les permite calcular su recorrido, al reconocimiento del nombre de la estación o su olor o a una combinación de todos estos factores. De hecho, si tienen varias paradas por delante, suben a un asiento que haya libre y se echan tranquilamente una cabezadita…

Una vez en el centro, otra adaptación señalable es su capacidad para cruzar las calles con los semáforos en verde. Aunque los perros no ven en color son capaces de diferenciar las imágenes del semáforo.

Respecto a la obtención de alimento, objetivo principal de su viaje en metro, destacan entre sus conductas adquiridas lo que en Rusia han llamado la “cacería del shawarma”. Dicha cacería consta de una sofisticada emboscada en la que un perro espera tranquilo y tumbado junto a los kioscos de comidas levantándose de un salto y ladrando a los turistas en el momento en el que estos han comprado y pagado ya uno de los populares shawarmas calientitos. Los turistas, ante el ladrido intempestivo, tiran por el susto (con un porcentaje altísimo de éxito para el perro) su preciada comida.

Según A. Poiarkov, del Instituto de Ecología y Evolución de Moscú, lo destacable de esta habilidad es que los animales parecen saber quién se va a asustar y a tirar su comida y quién no, dejando pasar de largo a estos últimos a los que se acercarán con otro tipo de tretas diferentes.

En este sentido, la más utilizada de las tretas “positivas”, es su capacidad de seducción, sobre todo a mujeres y niños que se sientan en bancos de los parques a comerse un sándwich o aperitivo, colocándose junto a ellos con ojitos tiernos y quejidos suaves propiciando, en la mayoría de las ocasiones, que sea el perro el que acabe con parte del festín.

Han desarrollado, por tanto, además de sus nuevas habilidades de orientación y control del tiempo y del espacio, un sexto sentido, o una serie de habilidades psicológicas que les permiten minimizar los fracasos percibiendo la intencionalidad y la sensibilidad de las personas, utilizando una treta u otra con ellas dependiendo de la situación y de la persona de la que esperan conseguir algo.
Según se desprende del mismo estudio, este tipo de adaptación y las nuevas habilidades de los perros callejeros moscovitas puede considerarse un síntoma de evolución epigenética (Cambios reversibles de ADN que hacen que unos genes se expresen o no dependiendo de condiciones exteriores), naciendo los nuevos canes con estas nuevas pautas de comportamiento “heredadas” de sus progenitores y que se mantendrán, previsiblemente en el tiempo mientras se mantengan las condiciones que las originaron. En este caso, la transformación social de Rusia a partir de la caída del comunismo, cuando los nuevos capitalistas entendieron el valor turístico y comercial del centro de la ciudad y se llevaron los complejos industriales a las afueras, convirtiéndolos en un perfecto alojamiento para los perros callejeros, que debieron idear nuevas formas de “ganarse” la vida en este nuevo contexto social.

Y todo ello, sin perder ni un ápice de su capacidad de divertirse. Como curiosidad los etólogos mencionan que incluso durante “su trabajo”, no dejan de jugar. En muchos casos se puede ver cómo les gusta saltar del tren en el instante mismo en el que se cierran las puertas, comportamiento que únicamente se observa cuando han comido y por pura diversión, normalmente a la vuelta, agrupándose más de un can para “disfrutar del espectáculo”.

También juegan con los niños y adultos de los vagones y no se ha observado un comportamiento peligroso con personas en estos animales.

Un estudio, realmente curioso y muy interesante.

Fuente texto: @MisAnimales https://www.facebook.com/Mis.Animales.Todoparatumascota

www.AnimaNaturalis.org