scholarly journals Some efficient methods for computing the determinant of large sparse matrices

2014 ◽  
Vol Volume 17 - 2014 - Special... ◽  
Author(s):  
Emmanuel Kamgnia ◽  
Louis Bernard Nguenang

International audience The computation of determinants intervenes in many scientific applications, as for example in the localization of eigenvalues of a given matrix A in a domain of the complex plane. When a procedure based on the application of the residual theorem is used, the integration process leads to the evaluation of the principal argument of the complex logarithm of the function g(z) = det((z + h)I - A)/ det(zI - A), and a large number of determinants is computed to insure that the same branch of the complex logarithm is followed during the integration. In this paper, we present some efficient methods for computing the determinant of a large sparse and block structured matrix. Tests conducted using randomly generated matrices show the efficiency and robustness of our methods. Le calcul de déterminants intervient dans certaines applications scientifiques, comme parexemple dans le comptage du nombre de valeurs propres d’une matrice situées dans un domaineborné du plan complexe. Lorsqu’on utilise une approche fondée sur l’application du théorème desrésidus, l’intégration nous ramène à l’évaluation de l’argument principal du logarithme complexe de lafonction g(z) = det((z + h)I − A)/ det(zI − A), en un grand nombre de points, pour ne pas sauterd’une branche à l’autre du logarithme complexe. Nous proposons dans cet article quelques méthodesefficaces pour le calcul du déterminant d’une matrice grande et creuse, et qui peut être transforméesous forme de blocs structurés. Les résultats numériques, issus de tests sur des matrices généréesde façon aléatoire, confirment l’efficacité et la robustesse des méthodes proposées.

1992 ◽  
Vol 6 (1) ◽  
pp. 98-111 ◽  
Author(s):  
S. K. Kim ◽  
A. T. Chrortopoulos

Main memory accesses for shared-memory systems or global communications (synchronizations) in message passing systems decrease the computation speed. In this paper, the standard Arnoldi algorithm for approximating a small number of eigenvalues, with largest (or smallest) real parts for nonsymmetric large sparse matrices, is restructured so that only one synchronization point is required; that is, one global communication in a message passing distributed-memory machine or one global memory sweep in a shared-memory machine per each iteration is required. We also introduce an s-step Arnoldi method for finding a few eigenvalues of nonsymmetric large sparse matrices. This method generates reduction matrices that are similar to those generated by the standard method. One iteration of the s-step Arnoldi algorithm corresponds to s iterations of the standard Arnoldi algorithm. The s-step method has improved data locality, minimized global communication, and superior parallel properties. These algorithms are implemented on a 64-node NCUBE/7 Hypercube and a CRAY-2, and performance results are presented.


Author(s):  
Karim Achour ◽  
Nadia Zenati ◽  
Oualid Djekoune

International audience The reduction of the blur and the noise is an important task in image processing. Indeed, these two types of degradation are some undesirable components during some high level treatments. In this paper, we propose an optimization method based on neural network model for the regularized image restoration. We used in this application a modified Hopfield neural network. We propose two algorithms using the modified Hopfield neural network with two updating modes : the algorithm with a sequential updates and the algorithm with the n-simultaneous updates. The quality of the obtained result attests the efficiency of the proposed method when applied on several images degraded with blur and noise. La réduction du bruit et du flou est une tâche très importante en traitement d'images. En effet, ces deux types de dégradations sont des composantes indésirables lors des traitements de haut niveau. Dans cet article, nous proposons une méthode d'optimisation basée sur les réseaux de neurones pour résoudre le problème de restauration d'images floues-bruitées. Le réseau de neurones utilisé est le réseau de « Hopfield ». Nous proposons deux algorithmes utilisant deux modes de mise à jour: Un algorithme avec un mode de mise à jour séquentiel et un algorithme avec un mode de mise à jour n-simultanée. L'efficacité de la méthode mise en œuvre a été testée sur divers types d'images dégradées.


2016 ◽  
Vol 2016 ◽  
pp. 1-3 ◽  
Author(s):  
Hal Caswell ◽  
Silke F. van Daalen

The vec operator transforms a matrix to a column vector by stacking each column on top of the next. It is useful to write the vec of a block-structured matrix in terms of the vec operator applied to each of its component blocks. We derive a simple formula for doing so, which applies regardless of whether the blocks are of the same or of different sizes.


2013 ◽  
Vol 8 (2) ◽  
pp. 101-110 ◽  
Author(s):  
Jacques Joly ◽  
Marc Tourigny ◽  
Marielle Thibaudeau

Un très grand nombre de programmes de prévention ou d’intervention, qui ont fait l’objet d’expérimentation ou non et dont l’efficacité a été évaluée ou non, sont implantés régulièrement en milieu scolaire. Malheureusement, il semble que ces programmes soient souvent implantés de manière non fidèle aux programmes conçus pour être efficaces. Or l’application non fidèle d’un programme peut affecter sérieusement son efficacité et l’évaluation de ses effets. Dans le cadre de cet article, nous présentons le concept de fidélité d’implantation de programmes et de sa mesure, nous discutons des facteurs qui y sont associés et des conséquences d’une implantation de programme non fidèle. Enfin, nous proposons certaines stratégies visant à améliorer l’implantation des programmes de prévention ou d’intervention en milieu scolaire.


1996 ◽  
Vol 13 (1) ◽  
pp. 123-152 ◽  
Author(s):  
Sowmini Varadhan ◽  
Michael W. Berry ◽  
Gene H. Golub

Sign in / Sign up

Export Citation Format

Share Document