]> source.dussan.org Git - archiva.git/blob
bbc2faaac4b6c1e8030dbafea4407c5c9ee3be9e
[archiva.git] /
1 package org.apache.archiva.reports.consumers;
2
3 /*
4  * Licensed to the Apache Software Foundation (ASF) under one
5  * or more contributor license agreements.  See the NOTICE file
6  * distributed with this work for additional information
7  * regarding copyright ownership.  The ASF licenses this file
8  * to you under the Apache License, Version 2.0 (the
9  * "License"); you may not use this file except in compliance
10  * with the License.  You may obtain a copy of the License at
11  *
12  *  http://www.apache.org/licenses/LICENSE-2.0
13  *
14  * Unless required by applicable law or agreed to in writing,
15  * software distributed under the License is distributed on an
16  * "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
17  * KIND, either express or implied.  See the License for the
18  * specific language governing permissions and limitations
19  * under the License.
20  */
21
22 import org.apache.archiva.admin.model.beans.ManagedRepository;
23 import org.apache.archiva.checksum.ChecksumAlgorithm;
24 import org.apache.archiva.checksum.ChecksummedFile;
25 import org.apache.archiva.metadata.model.ArtifactMetadata;
26 import org.apache.archiva.metadata.repository.MetadataRepository;
27 import org.apache.archiva.metadata.repository.MetadataRepositoryException;
28 import org.apache.archiva.metadata.repository.RepositorySession;
29 import org.apache.archiva.metadata.repository.RepositorySessionFactory;
30 import org.apache.archiva.metadata.repository.storage.RepositoryPathTranslator;
31 import org.apache.archiva.reports.RepositoryProblemFacet;
32 import org.apache.commons.collections.CollectionUtils;
33 import org.apache.archiva.configuration.ArchivaConfiguration;
34 import org.apache.archiva.configuration.ConfigurationNames;
35 import org.apache.archiva.configuration.FileTypes;
36 import org.apache.archiva.consumers.AbstractMonitoredConsumer;
37 import org.apache.archiva.consumers.ConsumerException;
38 import org.apache.archiva.consumers.KnownRepositoryContentConsumer;
39 import org.codehaus.plexus.registry.Registry;
40 import org.codehaus.plexus.registry.RegistryListener;
41 import org.slf4j.Logger;
42 import org.slf4j.LoggerFactory;
43 import org.springframework.context.annotation.Scope;
44 import org.springframework.stereotype.Service;
45
46 import javax.annotation.PostConstruct;
47 import javax.inject.Inject;
48 import javax.inject.Named;
49 import java.io.File;
50 import java.io.IOException;
51 import java.util.ArrayList;
52 import java.util.Collections;
53 import java.util.Date;
54 import java.util.List;
55
56 /**
57  * Search the database of known SHA1 Checksums for potential duplicate artifacts.
58  * <p/>
59  * TODO: no need for this to be a scanner - we can just query the database / content repository to get a full list
60  *
61  * @version $Id$
62  */
63 @Service( "knownRepositoryContentConsumer#duplicate-artifacts" )
64 @Scope( "prototype" )
65 public class DuplicateArtifactsConsumer
66     extends AbstractMonitoredConsumer
67     implements KnownRepositoryContentConsumer, RegistryListener
68 {
69     private Logger log = LoggerFactory.getLogger( DuplicateArtifactsConsumer.class );
70
71     /**
72      * default-value="duplicate-artifacts"
73      */
74     private String id = "duplicate-artifacts";
75
76     /**
77      * default-value="Check for Duplicate Artifacts via SHA1 Checksums"
78      */
79     private String description = "Check for Duplicate Artifacts via SHA1 Checksums";
80
81     /**
82      *
83      */
84     @Inject
85     private ArchivaConfiguration configuration;
86
87     /**
88      *
89      */
90     @Inject
91     private FileTypes filetypes;
92
93     /**
94      * FIXME: can be of other types
95      *
96      */
97     @Inject
98     private RepositorySessionFactory repositorySessionFactory;
99
100     private List<String> includes = new ArrayList<String>();
101
102     private File repositoryDir;
103
104     private String repoId;
105
106     /**
107      * FIXME: needs to be selected based on the repository in question
108      *
109      */
110     @Inject
111     @Named( value = "repositoryPathTranslator#maven2" )
112     private RepositoryPathTranslator pathTranslator;
113
114     private RepositorySession repositorySession;
115
116     public String getId()
117     {
118         return id;
119     }
120
121     public String getDescription()
122     {
123         return description;
124     }
125
126     public boolean isPermanent()
127     {
128         return false;
129     }
130
131     public List<String> getIncludes()
132     {
133         return includes;
134     }
135
136     public List<String> getExcludes()
137     {
138         return Collections.emptyList();
139     }
140
141     public void beginScan( ManagedRepository repo, Date whenGathered )
142         throws ConsumerException
143     {
144         repoId = repo.getId();
145         this.repositoryDir = new File( repo.getLocation() );
146         repositorySession = repositorySessionFactory.createSession();
147     }
148
149     public void beginScan( ManagedRepository repo, Date whenGathered, boolean executeOnEntireRepo )
150         throws ConsumerException
151     {
152         beginScan( repo, whenGathered );
153     }
154
155     public void processFile( String path )
156         throws ConsumerException
157     {
158         File artifactFile = new File( this.repositoryDir, path );
159
160         // TODO: would be quicker to somehow make sure it ran after the update database consumer, or as a part of that
161         //  perhaps could use an artifact context that is retained for all consumers? First in can set the SHA-1
162         //  alternatively this could come straight from the storage resolver, which could populate the artifact metadata
163         //  in the later parse call with the desired checksum and use that
164         String checksumSha1;
165         ChecksummedFile checksummedFile = new ChecksummedFile( artifactFile );
166         try
167         {
168             checksumSha1 = checksummedFile.calculateChecksum( ChecksumAlgorithm.SHA1 );
169         }
170         catch ( IOException e )
171         {
172             throw new ConsumerException( e.getMessage(), e );
173         }
174
175         MetadataRepository metadataRepository = repositorySession.getRepository();
176
177         List<ArtifactMetadata> results;
178         try
179         {
180             results = metadataRepository.getArtifactsByChecksum( repoId, checksumSha1 );
181         }
182         catch ( MetadataRepositoryException e )
183         {
184             throw new ConsumerException( e.getMessage(), e );
185         }
186
187         if ( CollectionUtils.isNotEmpty( results ) )
188         {
189             ArtifactMetadata originalArtifact;
190             try
191             {
192                 originalArtifact = pathTranslator.getArtifactForPath( repoId, path );
193             }
194             catch ( Exception e )
195             {
196                 log.warn( "Not reporting problem for invalid artifact in checksum check: " + e.getMessage() );
197                 return;
198             }
199
200             for ( ArtifactMetadata dupArtifact : results )
201             {
202                 String id = path.substring( path.lastIndexOf( "/" ) + 1 );
203                 if ( dupArtifact.getId().equals( id )
204                     && dupArtifact.getNamespace().equals( originalArtifact.getNamespace() )
205                     && dupArtifact.getProject().equals( originalArtifact.getProject() )
206                     && dupArtifact.getVersion().equals( originalArtifact.getVersion() ) )
207                 {
208                     // Skip reference to itself.
209                     if ( log.isDebugEnabled() )
210                     {
211                         log.debug( "Not counting duplicate for artifact " + dupArtifact + " for path " + path );
212                     }
213                     continue;
214                 }
215
216                 RepositoryProblemFacet problem = new RepositoryProblemFacet();
217                 problem.setRepositoryId( repoId );
218                 problem.setNamespace( originalArtifact.getNamespace() );
219                 problem.setProject( originalArtifact.getProject() );
220                 problem.setVersion( originalArtifact.getVersion() );
221                 problem.setId( id );
222                 // FIXME: need to get the right storage resolver for the repository the dupe artifact is in, it might be
223                 //       a different type
224                 // FIXME: we need the project version here, not the artifact version
225                 problem.setMessage( "Duplicate Artifact Detected: " + path + " <--> " + pathTranslator.toPath(
226                     dupArtifact.getNamespace(), dupArtifact.getProject(), dupArtifact.getVersion(),
227                     dupArtifact.getId() ) );
228                 problem.setProblem( "duplicate-artifact" );
229
230                 try
231                 {
232                     metadataRepository.addMetadataFacet( repoId, problem );
233                 }
234                 catch ( MetadataRepositoryException e )
235                 {
236                     throw new ConsumerException( e.getMessage(), e );
237                 }
238             }
239         }
240     }
241
242     public void processFile( String path, boolean executeOnEntireRepo )
243         throws ConsumerException
244     {
245         processFile( path );
246     }
247
248     public void completeScan()
249     {
250         repositorySession.close();
251     }
252
253     public void completeScan( boolean executeOnEntireRepo )
254     {
255         completeScan();
256     }
257
258     public void afterConfigurationChange( Registry registry, String propertyName, Object propertyValue )
259     {
260         if ( ConfigurationNames.isRepositoryScanning( propertyName ) )
261         {
262             initIncludes();
263         }
264     }
265
266     public void beforeConfigurationChange( Registry registry, String propertyName, Object propertyValue )
267     {
268         /* do nothing */
269     }
270
271     private void initIncludes()
272     {
273         includes.clear();
274
275         includes.addAll( filetypes.getFileTypePatterns( FileTypes.ARTIFACTS ) );
276     }
277
278     @PostConstruct
279     public void initialize()
280     {
281         initIncludes();
282         configuration.addChangeListener( this );
283     }
284 }